Sun’iy intellekt tobora kuchayib bormoqda, lekin ko‘proq xatoga yo‘l qo‘ymoqda – OAV
Sun’iy intellekt bilan bog‘liq eng keng tarqalgan muammolardan biri bu «gallyutsinatsiyalar» bo‘lib, modellar ma’lumot va faktlarni biron bir manba bilan qo‘llab-quvvatlamasdan, shunchaki uydirayotgani ta’kidlanmoqda.

Foto: Thomas Fuller/SOPA Images/LightRocket via Getty Images
Sun’iy intellekt (SI) tilida fikr yurituvchi so‘nggi yirik modellar, xususan, OpenAI kompaniyasining eng kuchli modeli bo‘lgan o3 o‘zidan oldingilarga qaraganda ko‘proq xato qilmoqda, deb yozdi The New York Times.
Shu kabi muammolar boshqa kompaniyalarning SI modellarida, masalan, Google yoki Xitoyning DeepSeek startapida ham uchraydi. Ularning matematik imkoniyatlari sezilarli darajada oshishiga qaramay, javoblardagi xatolar soni faqat ortmoqda.
Sun’iy intellekt bilan bog‘liq eng keng tarqalgan muammolardan biri bu «gallyutsinatsiyalar» bo‘lib, modellar ma’lumot va faktlarni biron bir manba bilan qo‘llab-quvvatlamasdan, shunchaki uydirmoqda.
Ishlab chiquvchilarning sa’y-harakatlariga qaramay, biznes uchun sun’iy intellekt vositalari yaratadigan Vectara startapining bosh direktori Amr Avadalla gallyutsinatsiyalar doimo mavjud bo‘lishini aytdi.
Bunday gallyutsinatsiyaga misol sifatida Cursor vositasini texnik qo‘llab-quvvatlaydigan SI boti bo‘ldi. U asbobni faqat bitta kompyuterda ishlatish mumkinligini aytib, noto‘g‘ri ma’lumot berdi. Bu shikoyatlar to‘lqiniga va hatto foydalanuvchilar tomonidan akkauntlarning o‘chirilishiga olib keldi. Keyinchalik ma’lum bo‘lishicha, kompaniya bunday o‘zgarishlarni amalga oshirmagan - bularning barchasini bot o‘ylab topgan.
Turli modellarni alohida sinovdan o‘tkazishda gallyutsinatsiyalar, ya’ni xayoliy faktlar darajasi 79 foizga yetdi. OpenAI ichki testida o3 modeli mashhur shaxslar haqidagi savollarga berilgan javoblarning 33 foizida xatoga yo‘l qo‘ydi. Bu o1 modeliga nisbatan ikki baravar ko‘p. Yangi o4-mini modeli bundan ham yomonroq ishladi va 48 foiz holatda xatoga yo‘l qo‘ydi.
Umumiy savollarga javob berganda, o3 va o4-mini modellarida gallyutsinatsiyalar darajasi yanada yuqori edi - mos ravishda 51 foiz va 79 foiz. Taqqoslash uchun, eski o1 modeli xatolari 44 foizni tashkil etdi. OpenAI bunday xatolarning sabablarini tushunish uchun qo‘shimcha tadqiqotlar zarurligini tan olmoqda.
Kompaniyalar va tadqiqotchilar tomonidan o‘tkazilgan mustaqil testlar shuni ko‘rsatadiki, gallyutsinatsiyalar Google va DeepSeek fikrlash modellarida ham uchraydi. Kompaniyalarning ushbu xatolarni tuzatishga urinishlariga qaramay, o‘tgan yil ichida gallyutsinatsiyalar atigi 1-2 foizga kamaydi.
Tavsiya etamiz
Urush boshlandi, Netanyahu eronliklarni isyonga chorladi – hafta dayjesti
Jahon | 20:41 / 15.06.2025
«Siti» va «Real»da qayta qurish boshlandi. Yozning ilk haftalaridagi transferlar
Sport | 18:12 / 15.06.2025
AQSh–Eron muzokaralari taqdiri nima bo‘ladi?
Jahon | 23:29 / 14.06.2025
Parkentda 3 bola suvga cho‘kib halok bo‘ldi
Jamiyat | 20:35 / 14.06.2025
So‘nggi yangiliklar
-
O‘zbekistonda Toshkent – Bali yo‘nalishida tarixdagi birinchi to‘g‘ridan to‘g‘ri reys yo‘lga qo‘yilmoqda
Jamiyat | 19:00 / 17.06.2025
-
"O‘zbekinvest" EISK AJ va Slovakiyaning EXIMBANKA SR o‘rtasida hamkorlik to‘g‘risida bitim imzolandi
O‘zbekiston | 09:42
-
Chaqalog‘ini 10 mln so‘mga sotmoqchi bo‘lgan ayolga hukm o‘qildi
Jamiyat | 09:24
-
“Aybsiz bo‘lsa, nega yashirinib yuribdi?” – Farg‘ona viloyati IIB restoranga uyushtirilgan “maska-shou”ga izoh berdi
Jamiyat | 09:14
Mavzuga oid

20:21 / 03.06.2025
Sun’iy intellekt tomonidan yaratilgan dori o‘pka kasalligini davolashda samara ko‘rsatdi

20:05 / 28.05.2025
Sun’iy intellekt o‘zbek tilida shevada gapirishni boshladi

20:47 / 22.05.2025
AQSh gazetasi SI tomonidan o‘ylab topilgan soxta kitoblar ro‘yxatini chop etdi

17:15 / 08.05.2025