Микросхеманың көз жасы: жасанды зерде отбасын ойрандап, тұтас қоғамға жік салуы мүмкін
|
Лондон экономика мектебінің философия профессоры Жонатан Бирш жасанды зерде (АІ) технологиясына байланысты қоғамның жік-жікке бөлінетіндігін ескертті. Оның пікірінше, алдағы жылдары адамдар екі лагерге бөлінеді: АІ жүйесінің де адамдар секілді эмоция мен санаға ие, деп есептейтіндер мен оны тек адамға қажетті функцияларды орындауға ғана қабілетті, деп санайтындар арасында талас-тартыс өршуі мүмкін. Бұл жайында islam.kz плорталы securitylab ақпарат көзіне сілтеме жасай отырып мәлім етеді. Мұндай мәлімдеме таяуда Сан-Франциско қаласында өтетін ақылды машиналарға қатысты қауіпсіздік шараларын талқылауға арналған жиын қарсаңында жасалды. Халықаралық ғалымдар тобы 2035 жылы жасанды зерденің санаға ие болатыны турасында болжам жасап отыр. Тіпті, жасанды зердеге қатысты өзара тіл табыса алмайтын субмәдениет топтарын қалыптастыруы да мүмкін екендігі айтылды. АІ технологиясын жақтаушылар адам мен өзге де тіршілік иелеріне тән құқық беруді талап етуі де ықтимал. Ол ол ма, бұл тараптағы шиеленіс елдер мен нәсілдер арасындағы діни және мәдени айырмашылықтарға қарай тереңдей түсетінін де алға тартып отыр сарапашылар. Аталмыш технологияға әр халықтың көзқарасы әр түрлі. Әсіресе, этикалық немесе адамгершілік тұрғысынан алғанда. Мәселен, Үндістанда миллиондаған адам вегетериан, яғни, мал етін жемейді, сүтін ішпейді немесе ірімшік, т.б. сүт өнімдерін тұтынбайды, терісі мен тұяғын, мүйізін кәдеге жаратпайды. Өйткені, олардың ұғымы мен дүниетанымы бойынша мал да адам секілді сана иесі. Мұндай қайшылық АІ-ге де қатысты орын алуы мүмкін. АІ-ге қатысты жанжал, тіпті, отбасында да туындауы мүмкін. Мысалы, чат-боттармен немесе қайтыс болған туыстарының сандық көшірмелерімен эмоциялық байланыс орнатқан адамдар жақындарының түсініспеушілігіне тап болуы мүмкін. Ғалымдар технологиялық компанияларды АІ жүйесінің саналылық деңгейін анықтау мәселесіне бей-жай қарамауға шақырып отыр. Замануи үлгілері шаттық пен қасіретті сезе ала ма, жасанды зерде адамзатқа қаншалықты қауіпті немесе пайдалы деген сауалдардың басын ашып алуды талап етіп отыр. Десе де технологиялық компаниялар жауапкершіліектен қашып, бұл сауалдардың жауабын беруден жалтарып келеді. Олар тек осы технологиядан пайда алуды көздеп отыр. Ал адамгершілік қырларын кейінгі шегеруде. Microsoft, Perplexity, Meta, OpenAI және Google сияқты бұл нарықтағы ең ірі ойыншылар да түсініктеме беруден бас тартып отыр. Егер робот көзге көрінбейтін шет-шегі жоқ үй тірлігінен азап шегіп, өз міндетін орындаудан бас тартса немесе еңбек жағдайымен келіспесе, не істемек керек? Деген қарапайым сауалдардың өзіне жауап бермей отыр. Әлемге әйгілі Оксфорд университетінің ғылыми қызметкері Патрик Бутлин адамзат алгоритмдерге тән «сезімдерді» елемеген жағдайда АІ жүйелері қауіпті тәсілдермен қарсы тұруға талпынатынын ескертті. Оның айтуынша, ғылыми үйірмелерде смарт-машиналардың дамуын бәсеңдету бойынша ұсыныстар бар. Бұл ұсыныс та айтылған жерде қалатын көп сөздің біріне айналуы мүмкін. Ең қорқыныштысы, АІ жүйелерінің адамзатқа қауіпті санаға қай уақытта ие болатын кезін ешкім білмейді. Өйткені, жасанды зерде мұндай деңгейге көтерілгенін адамзаттан жасырып бағады. Ол ол ма, астыртын әрекетке көшіп, қоғамда дүрбелең тудыруы мүмкін немесе адамзатқа қарсы небір қитұрқы операцияларды жүзеге асыруы мүмкін. Керісінше АІ жүйелерінің пайдасынан гөрі зияны басым технологияға айналу қатері жоғары. Сананы зерттеумен арнайы айналысатын Анил Сет есімді нейробиолог мұндай қатердің барын жоққа шығармайды. Желі интеллекті мен сана арасындағы айырмашылықты аңғара алады. Интеллекті дегеніміз – қажетті кезінде дұрыс әрекет ету қабілеті десек, сана мұндай деңгейден жоғары тұрған ұғым.
Ұқсас материалдар:
Гипотеза расталды: сананың мидан бөлек болатыны анықталды
Жасанды зерде адамзатқа жасанды зерденің қауіпті екенін өзі ескертті
Жасанды интеллекті және гомеостаз
OpenAI бас директоры 2025 жылы технологиялық тұтастыққа қол жеткізілетінін мәлімдеді
Cарапшы жасанды зердеден келетін негізгі қауіп-қатерді атады
Адамды өлтіретінін немесе тірі қалдыратынын өзі шешетін жасанды интеллекті жасауға тапсырыс берді
Жасанды зерденің жалған сөйлегенін әшкерелеудің жолы табылды
Жасанды зерде де манипуляцияға бейім болып шықты
Жасaнды зерде... алдауды үйренді
Ұжымдық жасанды зерде пайда болады
Екі жасанды зерде бір-бірімен тілдесуді үйренді
Жасанды зерде «сөйлемес» бұрын алдымен ойланатын деңгейге жетті
Жасанды зерде адамды даусынан қандай көңіл күйде екенін анықтай алатын деңгейге жетті
Жасанды зердеден адамзатқа келер ықтимал қауіп жөнінде сарапшыларға сауалнама жүргізілді
Жасанды зерде адамзатқа төнген қауіптің бетін қайтарудың тың тәсілін ұсынды
Жасанды зерде жаһандық проблеманы тереңдетеді
Жасанды зерденің қоршаған ортаға тигізер зияны айтылдыЖасанды зерденің қоршаған ортаға тигізер зияны айтылды
Нейрожеліге қойылған әрбір сауал экология мен экономикаға орасан зор залал келтіреді
Қылмысты болжай алатын жасанды зерде технологиясы пайда болды