1.07.2023

Басты бет / ЖАСАНДЫ ИНТЕЛЛЕКТ ЖӘНЕ АЛАЯҚТАР

ЖАСАНДЫ ИНТЕЛЛЕКТ ЖӘНЕ АЛАЯҚТАР

Жасанды интеллектіні пайдаланып жасалған алаяқтық енді фантастикалық фильмнің сценарийі емес, бұл – бүгінгі күннің шындығы. Алайда технологиялардың дамуымен бірге оларды қорғау мәселесі бар екенін ұмытпаған абзал.

Жасанды интеллект, соның ішінде нейрондық желілер, жақсы және жосықсыз мақсаттар үшін пайдаланылуы мүмкін.

Дауыстық генераторларды пайдалана отырып жасалған алаяқтық: нейрондық желілер арқылы дауыстық синтезді және шынайы дауыстарды түрлендіруді ілгерілету телефондағы алаяқтық қаупін арттыруы мүмкін. Алаяқтар бұл технологияны жалған дауыстық хабарламалар жасау немесе қаржылық пайда табу үшін басқа адамның дауысына еліктеу үшін қолдана алады. Мысалы: Microsoft voice AI VALUE, бұл жасанды интеллект моделі мәтінді сөйлеуге айналдырады, адамның дауысын дәл келтіреді, ал үш секундқа ғана созылатын жазба осыған мысал бола алады. Сонымен қатар, жасанды интеллект дауыс үлгісіндегі сөйлеудің эмоционалды бояуын сақтайды. Бұл телефон алаяқтығының дамуына серпін бере ме? «Иә, серпін береді» деп айтуға әбден болады. Алаяқтар көбінесе жаңа технологияларды бірінші болып игеріп, оларды өз мақсаттарына бейімдеп алады.

Дауыстық хабарламалардан басқа, жалған суреттер қаупі бар: нейрондық желілер қолда бар фотосуреттер негізінде нақты кескіндер жасай алады.            Жасанды интеллект жалған ақпаратты тарату немесе биометриялық тексеру жүйелерін алдау мақсатында жалған фотосуреттер жасау үшін қолдануы мүмкін.

Жасанды интеллект зиянды бағдарламалық қамтылымды жасаған кезде қорқыныш пайда болады: хакерлік форумдарға қатысушылар зиянды код пен фишингтік электрондық хаттарды жазу үшін жасанды интеллектіні пайдаланады. Бағдарламалауда тәжірибесі жоқ адамдардың өздері-ақ вирусты жасай алатынын ескерген жөн. Жасанды интеллект технологиялары бұрыннан бар нәрсеге сүйене отырып, болашақта осы деректерді конструктор ретінде қолдана отырып, логикалық қайшылықтардан аулақ бола отырып, жаңа нәрсе жинай отырып оқытылады.

Шынымен де, әлеуметтік инженерия мен нейрондық желілердің көмегімен сіз зиянды сілтемесі бар, бірақ өте сенімді болып көрінетін хатты жасай аласыз. Әлеуметтік инженерия – бұл адамдардың психологиялық сипаттамаларын түсінуге және қолдануға негізделген манипуляция әдісі. Мысалы, хакерлер хатты барынша сенімді және дербес ету үшін әлеуметтік желілерден және басқа да ақпарат көздерінен алынған үлгілерге немесе ақпаратқа негізделген мәтіндер жасау үшін машиналық оқытуды қолдана алады.

Мұндай хаттар өте қауіпті болуы мүмкін екенін түсіну маңызды, өйткені көптеген пайдаланушылар алданып, зиянды сілтемеге өтуі мүмкін. Сондықтан өзіңізді осындай шабуылдардан қорғау үшін сіз қырағы болып, күдікті сілтемелерге өтпегеніңіз жөн. Құрылғыларды зиянды бағдарламалар мен шабуылдардан қорғау үшін вирусқа қарсы бағдарламалар мен басқа да қорғаныс құралдарын қолдану қажет.

Деректеріңізді және қаражаттарыңызды қорғау мақсатында хат алмасулар мен қоңыраулардың қауіпсіздігін қамтамасыз ету үшін құпия сөздерді немесе кодтық сөз тіркестерін ойлап табуды ұсынамыз. Мысалы, егер сіз құпия ақпаратпен алмасып жатсаңыз немесе өзіңізге қажетті адаммен сөйлесіп жатқаныңызға көз жеткізуіңіз керек болса, осы кеңестің пайдасын көресіз.

Мысалы, егер жақын адам сізге өз нөмірінен қоңырау шалып, сізбен өз дауысымен сөйлесетін болса, сізбен нейрондық желі сөйлесіп жатқанын түсінбей де қаласыз. Бар айла осында жатыр. Алаяқтарға Интернеттегі онлайн жеткізу, онлайн сатып алу және т.б. сияқты таралып кеткен компания базалары көмектеседі.

Кейбір қорғаныс әдістеріне цифрлық қолтаңбаны тексеру алгоритмдерін қолдану, кескін метадеректерін талдау немесе ауытқулар мен сәйкессіздіктерді анықтау үшін машиналық оқыту алгоритмдерін қолдану кіреді.

Егер қоңыраудың немесе хабарламаның түпнұсқалығына күмәніңіз болса, жеке ақпаратты бермеңіз. Бұл өзіңізді және Сіздің жақындарыңызды алаяқтар мен киберқылмыскерлердің ықтимал шабуылдарынан қорғауға көмектеседі.