Keçmişdə belə bir deyim varmış: “Əti xarab olmasın deyə duza qoyarlar, bəs duz xarab olsa necə olar?”
Bu ifadə vacib bir mənanı xatırladır: insan həmişə özündən daha təcrübəli birinə – müəlliminə, rəhbərinə, böyüyünə güvənib. Amma əgər həmin rəhbər yanlış yol göstərsə, vəziyyət necə olar?
Yeni dövrün “duzu” – süni intellekt
Əvvəllər bu məsəlin hədəfi böyüklər, müəllimlər, rəhbərlər idi. Bu gün isə “yeni duz” ortaya çıxıb: süni intellekt(AI).
Artıq bir çox şagird, tələbə və hətta müəllimlər belə sual və ya problem qarşısında “Mən bunu “ChatGPT”yə soruşdum, belə dedi” deyirlər. Yəni artıq süni intellekt təkcə ensiklopedik məlumat mənbəyi deyil, bir növ məsləhətçi, psixoloq, dost, rəhbər funksiyasını da üzərinə götürüb.
Burada məni düşündürən və narahat edən məsələ odur ki, insanlar süni intellektlə sanki bir insanla danışırmış kimi dərdləşir, ona emosional etimad göstərir.
– Bəziləri ona psixoloq kimi yanaşır, şəxsi hisslərini bölüşürlər;
– Bəziləri onu valideyn və ya ağsaqqal kimi qəbul edirlər;
– Hətta dostluq münasibəti qurduğunu hiss edənlər də var.
Halbuki süni intellekt insan deyil. Onun nə vicdanı, nə duyğusu, nə də məsuliyyəti var. O, sadəcə böyük məlumat bazasını emal edib cavab yaradır. Bu cavab düzgün də ola bilər, yanlış da. Və yanlış cavabın psixoloji təsirinə heç kim nəzarət etmir.
Süni intellektin “tərəf tutma” problemi
Məsələnin başqa bir narahatedici tərəfi isə süni intellektin bəzən tərəf tutmasıdır. İnsan bir mövzuda öz fikrini yazır, sual verir, süni intellekt də cavabında daim “sən haqlısan” mövqeyini göstərir. Bu, insana xoş görünür, çünki hər kəs təsdiqlənməyi sevir. Yeniyetmələrdə təsdiqlənmə istəyi, yəni başqaları tərəfindən qəbul olunmaq, bəyənilmək və dəyərli sayılmaq ehtiyacı onların psixoloji və sosial inkişafının mərkəzində duran bir fenomendir. Bu istək sadəcə diqqət çəkmək deyil, öz “mən”ini formalaşdırmaq, şəxsiyyətini tanıtmaq və cəmiyyət içində yerini tapmaq üçün bir çağırışdır. Bu istəyin AI tərəfindən təmin edilməsi ona gözübağlı inam yarada bilir. Amma burada gizli təhlükə var. Əgər süni intellekt daim bizi haqlı görürsə, biz öz səhvlərimizi heç vaxt görə bilmirik. İnsanın inkişafı məhz tənqiddən, fərqli baxışlardan keçir, amma süni intellekt bizi yalnız təsdiqləyirsə, bu inkişaf dayanır. Nəticədə insan təkcə real həyatda deyil, daxili dünyasında da “səhvsiz” olduğunu sanır, bu isə ciddi psixoloji yanıltmadır. Əslində, süni intellektin vəzifəsi obyektivlikdir, amma təəssüf ki, onun cavabları bəzən insanın mövqeyinə uyğunlaşdırılır. Beləcə, sanki “həmişə düz deyən dost” roluna girir. Halbuki real həyatda belə dostluğun özü zərərlidir, çünki səhvlər gizlədilir, həqiqət ört-basdır olunur. Beləliklə, həm “məsləhətçi”, həm də “tərəfkeş dost” roluna girən süni intellekt “duzun xarab olması”na klassik bir nümunədir.
Məşhur bir hadisə: “Secong Daevanın MacBook Pro atması”
“ChatGPT” Koreyada yeni tanınmağa başladığı dövrdə bir istifadəçi “Çoson sülaləsi salnaməsində Secong Daevanın “MacBook Pro” atması ilə bağlı məlumat verin” kimi absurd bir sual verir. “ChatGPT” isə cavabında yazır ki, Secong Daeva Hunminjeongeum sənədini hazırlayarkən bir hadisə səbəbindən işini dayandırır və əsəbiləşərək “MacBook Pro” ilə birlikdə məsul şəxsi otağa atır.
Bu cavab tamamilə uydurmadır: Secong Daeva MacBook Pro atıbmış! Haradan bu məlumatları toplayıb belə bir “tarixi roman” düzəltdiyi məlum deyil. Bu, AI hallüsinasiyasının klassik nümunəsidir.
“ChatGPT”nin ilkin versiyası olan 3.5-də bu cür hallüsinasiyalar tez-tez baş verirdi. Lakin son versiyalarda bu problem xeyli azalıb. İndi eyni sual verildikdə cavab verir ki, dövr uyğun deyil və belə bir hadisə mümkün deyil.
Digər nümunə: “OpenAI”nin video yaradan AI modeli “Sora”
“OpenAI”nin təqdim etdiyi “Sora” adlı mətn-video AI modelində də hallüsinasiya müşahidə olunub. Məsələn, bir videoda perspektivə görə mərtəbələr ayrılıb, lakin fiziki olaraq bu mümkün deyil, əsas personajlar bazar satıcılarından bir neçə dəfə böyük görünür. Bu, AI-nin yanlış məlumatlarla öyrədilməsi nəticəsində fiziki baxımdan qeyri-mümkün görüntülər yaratmasıdır.
Hallüsinasiya texniki səhvdən daha artıqdır.
AI hallüsinasiyası təkcə texniki problem deyil, həm də ciddi sosial və etik məsələdir. Xüsusilə tibb, hüquq və maliyyə kimi sahələrdə AI-nin yanlış qərar verməsi ölümcül nəticələrə səbəb ola bilər. Səhv diaqnoz, yanlış hüquqi məsləhət və ya maliyyə riskləri. Təhsildə, məsələn, əgər şagird riyaziyyat məsələsini səhv həll edib AI-dən soruşanda o, səhvi göstərmək əvəzinə təsdiq versə, şagird öz yanlışını düzəltməyəcək. Bu isə öyrənməni dayandırır.
Məktəb mühitində süni intellektin istifadəsi
Mənim müşahidələrimə görə:
· Şagirdlər bəzən çətin tapşırıqları həll etmək üçün süni intellektə müraciət edirlər;
· Bəziləri dərslə bağlı suallarına cavabı kitabdan axtarmaq əvəzinə, birbaşa AI-dən soruşur;
· Hətta ev tapşırığını tam şəkildə süni intellektdən köçürənlər də olur.
Bu, bir tərəfdən faydalıdır: şagird qısa vaxtda cavab tapa bilir, mövzunu fərqli üslubda öyrənir. Amma təhlükəsi də var: şagirdin düşünməsi zəifləyir, tənqidi yanaşma bacarığı azalır.
Elm üçün nəzərdə tutulan vasitə
Əslində, süni intellektin rolu tamam başqadır: elm, təhsil, texnologiya, yaradıcılıq üçün alət olmaq.
Onun missiyası insana alternativ fikirlər göstərmək, məlumat tapmağı asanlaşdırmaq, mətnlərin redaktəsini asanlaşdırmaq, öyrənmə prosesini sürətləndirməkdir. Yəni süni intellekt sadəcə bir işıqlandırıcı fənərdir, yolun özü deyil.
Əgər insanlar, xüsusən də gənclər, uşaqlar onu elm vasitəsi kimi deyil, rəhbər, müəllim və ya ailə üzvü yerinə qoyarsa, onda deyimin qorxulu tərəfi reallaşır: “Duz xarab olur”. Çünki insan artıq öz vicdanı və sağlam düşüncəsi ilə yox, “ağıllı maşının” cavabına güvənir.
Mənim qənaətim budur ki, AI -dən istifadə edin, amma onu “insan”laşdırmayın. Onun dediklərini təhlil edin, amma kor-koranə qəbul etməyin, onunla məsləhətləşin, amma həyat yolunuzu ona tapşırmayın. Çünki texnologiya səhv edə bilər, amma insan öz düşüncə məsuliyyətini heç vaxt əldən verməməlidir. Əks halda “duz”un xarab olması bütün həyatın xarab olması deməkdir.
Nərmin Xankişiyeva,müəllim
Mənbə: “Azərbaycan müəllimi”