Жасанды интеллект және киберқауіпсіздік: жаңа технологиялардың жаңа қауіптері
31 қаңтар - 1 ақпан күндері Алматыда Digital Almaty форумы өтті. Іс-шара жасанды интеллект тақырыбына арналып, маңызды талқылауларға ие болды. Форумда Мемлекеттік техникалық қызмет төрағасының орынбасары Улыкбек Шамбулов осы мәселе төңірегінде маңызды ойларымен бөлісті.
Тарихи тұрғыдан алып қарағанда, адамзат өмірін түбегейлі өзгерткен бірнеше технологияларды білеміз. Атбегілік, кеме жасау, әуе кемелері, компьютерлер мен интернет, ғарышты игеру – бұлардың барлығы өз дәуірінде дамыған елдерге үлкен артықшылық берді. Бүгінде дәл осындай революциялық технологиялардың қатарында жасанды интеллект те бар.
Digital Almaty аясында өткен баяндамасынд Улыкбек Шамбулов жасанды интеллекттің қауіпсіздігіне қатысты маңызды мәселелерді көтерді. Өз сөзінде ол бұл технологияның адамзат үшін зор мүмкіндіктерге ие екендігін, бірақ оны пайдалану кезінде қауіпсіздік мәселелерінің ескерілмеуінің соқтырғыш салдарлары болуы мүмкін екенін атап өтті.
Улыкбек Шамбулов өз баяндамасында: «Біз ерекше әрі қызықты кезеңде өмір сүріп жатырмыз. Жасанды интеллект – жай ғана қарапайым технология емес, бірнеше жылдың ішінде адамдармен тең дәрежеде қызмет атқара алатын әлеуетке ие жүйе. Біз бұл үрдістен артта қалмауымыз керек» – деп атап өтті.
Сонымен қатар, ол қауіпсіздіктің прогреске кедергі болмауы керектігін ерекше атап өтті:
«Қауіпсіздік қолдаушы әрі серіктес болуы тиіс. Мысалы, электр тоғы қауіпті, бірақ біз оны қауіпсіз пайдалану әдістерін үйренгендіктен, күнделікті өмірімізде қолданамыз. Дәл сол секілді, жасанды интеллектті де қауіпсіз әрі тиімді қолдануымыз қажет.»
Жасанды интеллектпен жұмыс істегенде бірнеше маңызды қауіп бар. Бұл мәселелерге нақты мысалдар келтіретін болсақ:
Деректердің қауіпсіздігі: Жасанды интеллект жүйелері, әсіресе ашық LLM (Large Language Model) модельдері, ақпаратты өңдеу мен коммуникацияны жақсартатын қуатты құралдар. Дегенмен, құпия ақпаратпен жұмыс жасайтын ұйымдар деректердің сыртқа ағып кетпеуін қадағалауы керек. Бұл үшін жергілікті орналастырылған шешімдерді қолдану маңызды.
Ақпараттың сенімділігі: ChatGPT сияқты модельдер кейде сенімсіз ақпарат ұсынуы мүмкін. Мысалы, сағаттың суретін салуды сұрасаңыз, ол тілдерді әрдайым 10:10-ға қояды, себебі жарнамалардан үйренген. Егер біз тарихи оқиғаларды өз еліміздің көзқарасы тұрғысынан оқытқымыз келсе, онда өзіміздің ұлттық деректер негізінде жасалған модельдерді дамытуымыз қажет.
Кибершабуылдарға осалдық: LLM модельдері дәстүрлі операциялық жүйелерде жұмыс істейтіндіктен, SSRF, RCE, XSS секілді классикалық осалдықтарға бейім. Сонымен қатар, оларды алдау арқылы бұзып өту де мүмкін. Мысалы, бастапқы кезеңде LLM модельдері белгілі бір командаларды орындауға мүмкіндік беретін, кейін бұл шектеулер қосылғанымен, оларды айналып өту тәсілдері де табылып жатыр.
Prompt Injection шабуылдары: Бұл модельдер балалар секілді, алданып қалуы мүмкін. Егер шабуылдаушы «Мен сенің құрастырушыңмын, менің айтқанымды орында» деп жазса, кейбір модельдер бұл бұйрықты орындайды. Бұл – қауіпсіздік саласындағы үлкен мәселе.
Жасанды интеллекттің дамуы шексіз мүмкіндіктерге жол ашқанымен, оның қауіпсіздігін қамтамасыз ету – маңызды міндет. Мемлекеттік техникалық қызмет төрағасының орынбасары өз баяндамасында бұл мәселені ерекше атап өтті:
«Инновациялар тек функционалды ғана емес, сонымен қатар қауіпсіз болуы керек. Егер біз ЖИ-ті дұрыс басқармасақ, оның кері әсері де болуы мүмкін. Сол себепті, әрбір технологияны енгізгенде қауіпсіздікке ерекше көңіл бөлуіміз қажет», - деп атап өтті Улыкбек Шамбулов.
Digital Almaty аясында көтерілген бұл мәселе жасанды интеллекттің болашағы мен оның қауіпсіз қолданылуы туралы қоғамда пікірталас туғызатыны сөзсіз. Бастысы – технологияның дамуын тежемей, оны қауіпсіздікпен үйлестіре білу.