сейсенбі18 наурыз 2025
nurtoday.com

Қазақстанда адамдардың ойлау қабілетін жоғалтпау үшін ИИ-мен не істеледі?

Зерттеулер көрсеткендей, жасанды интеллектіні (ЖИ) жиі пайдалану адамдардың когнитивті функцияларын төмендетеді. Қазақстанда балалардың ойлау, талдау және сыни пікірлеу қабілеттерін жоғалтпау үшін осы саланы реттеу жоспарлануда. Бұл ақпарат ЖИ туралы заң жобасының таныстырылымында жарияланды.
Как в Казахстане планируют использовать ИИ, чтобы сохранить способность людей к критическому мышлению?

Мәжілісте ИИ-ды реттеу туралы заң жобасының таныстырылымы өтті. Заң жобасының авторы Екатерина Смышляева зерттеулер жиі ИИ-ды пайдалану адамның ойлау және талдау қабілетін төмендететінін дәлелдейтінін мәлімдеді. Бұл балалардың ойлау қабілетіне қауіп төндіруі мүмкін.

«Басқа мәселе - бұл ассистенттерді пайдалану толық ойлаудың болмауын білдірмейді. Ол базалық мәтін кезеңінде көмек көрсетуі тиіс. Содан кейін адам, идеалында, сыни ойлауды қосып, шындық пен жалғандықты бағалап, толықтыруы, қосымша дереккөздерді табуы, 500 рет сұрақ қойып, сапалы контент алуы керек.

Егер біз сыни ойлаудың екінші бөлігін іске қосатын болсақ, когнитивтік функциялардың төмендеу қаупі азаяды немесе біз оны (қаупі. – ред.) жоғалтамыз», – дейді Смышляева.

Мәселені шешу үшін білім беру стандарттарын қайта қарау қажет. Егер қазір балабақшалар мен мектептерде ақпарат жинап, талдауға үйретсе, болашақта оны сыни бағалауға үйрету керек.

Сонымен қатар, ИИ-ды пайдалану бойынша қандай да бір шектеулер енгізілген жағдайда, тыйымдарды сақтау үшін ата-аналар жауап беретінін, балалар емес, атап өтті бастамашы.

«Заң жобасы аясында біз бұл мәселені көпқырлы түрде қарастырып, шын мәнінде жұмыс істейтін және әкімшілік етуге болатын тыйымдарды енгіземіз», – деп қосты Смышляева.

ИИ-мен байланысты тағы бір мәселе - адамдарды жаңылыстыратын дипфейктер. Смышляева қазіргі уақытта дипфейктер үшін Әкімшілік және Қылмыстық кодекстің баптарын қолдануға болатынын айтты. Бірақ жаза дипфейктің таралу фактісіне емес, оның мазмұнына байланысты.

«Егер ол адамның ар-намысын және қадір-қасиетін қорласа, қоғамдық пікірді манипуляцияласа немесе алаяқтық әрекеттерге әкеліп, материалдық залал келтірсе, онда екінші бөлігі үшін жауапкершілік қолданылады», – деп хабарлады Смышляева.

Оның айтуынша, жұмыс тобы дипфейктер мәселесін талқылап, өз пікірін шамамен бір айдан кейін қалыптастырады.

Заң жобасы тек әзірлене бастағандықтан, таныстырылымда енгізілетін нақты шаралар айтылған жоқ. Депутаттар ИИ саласындағы қауіптерді (минималды, орташа және жоғары) классификациялауды жоспарлап, нақты орташа және жоғары қауіп жүйелерін реттеуді көздеп отыр, себебі олар қоғам мен мемлекет қауіпсіздігімен тығыз байланысты. Сонымен қатар, мәжілісмендер ИИ саласындағы әзірлемелер үшін ұлттық платформаны құруды, оған мемлекет тарапынан инвестиция құюды жоспарлап отыр. Мәжілісмендер жеке деректерді қорғауды күшейту шараларын да қабылдағысы келеді.

«Заң жобасы әзірлеуші иелеріне пайдаланушыларға ИИ технологиясымен жұмыс істеп жатқанын ескерту талаптарын белгілейді. Алайда, бұл мәселенің екі жағы бар: жұмыс топтарында да осы мәселеге қатысты конструктивті талқылау жүргізу қажет, өйткені барлық өнімдерді белгілеу мүмкін емес және қажет емес, себебі олардың көлемі бүгінгі күні орасан зор болып отыр», – деп айтты депутат.

Заң жобасын талқылайтын жұмыс тобына депутаттар, мемлекеттік органдардың өкілдері және сарапшылар кірді. Жалпы саны 150 адамға жуық, деп қорытындылады депутат Нуртай Сабильянов.

Бұған дейін «Курсив» хабарлаған болатын, Қазақстанда қазақ тілінің ұлттық сөздік қорын құру жоспарланып отыр.