Cambridge Dictionary, 2023 için yılın kelimesi olarak “halüsinasyon”u ilan etti ve bu terime yapay zeka teknolojisiyle ilgili ek, yeni bir anlam kazandırdı.
“Halüsinasyon görmenin” geleneksel tanımı, genellikle bir sağlık durumu veya uyuşturucu kullanımı nedeniyle birinin var olmayan bir şeyi hissediyormuş gibi görünmesidir, ancak bu artık aynı zamanda şu durumla da ilgilidir: yapay zeka yanlış bilgi üretmek.
Ek Cambridge Sözlüğü tanımı şu şekildedir: “Bir yapay zeka (= insan beyninin sahip olduğu, insana benzeyen bir dil üretme yeteneği gibi bazı niteliklere sahip bir bilgisayar sistemi) halüsinasyon gördüğünde, yanlış bilgi üretir. “
Bu yıl aşağıdakiler gibi yapay zeka araçlarına olan ilgide artış görüldü: SohbetGPT. Erişilebilir sohbet robotu bile İngiliz bir yargıç tarafından mahkeme kararının bir kısmını yazmak için kullanılır sırasında bir yazar Sky News’e bunun romanlarına nasıl yardımcı olduğunu anlattı.
Ancak her zaman güvenilir ve doğruluğu kontrol edilmiş bir anlatım sunmaz.
Konfabülasyon olarak da bilinen yapay zeka halüsinasyonları, araçların tamamen makul görünen önerilerden açıkça tamamen saçma olan önerilere kadar değişebilen yanlış bilgiler sağlamasıdır.
Cambridge Dictionary’nin yayın müdürü Wendalyn Nichols şunları söyledi: “Yapay zekaların ‘halüsinasyon’ görebilmesi gerçeği bize, insanların hala eleştirel düşünme becerilerini bu araçların kullanımına dahil etmeleri gerektiğini hatırlatıyor.
“Yapay zekalar, belirli bilgileri çıkarmak ve bunları pekiştirmek için büyük miktarda veriyi karıştırma konusunda harikadır. Ancak onlardan ne kadar orijinal olmalarını isterseniz, yoldan çıkma olasılıkları da o kadar artar.”
Devamını oku:
Elon Musk yapay zekanın ‘insanlık için bir risk’ olduğunu söyledi
Yapay zeka flört uygulamasının başarısına yardımcı olabilir mi?
Büyük dil modellerini (LLM’ler) kullanan yapay zeka araçlarının “yalnızca eğitim verileri kadar güvenilir olabileceğini” ekleyerek şu sonuca varmıştır: “Yetkili ve güncel bir dil oluşturmak için insan uzmanlığı tartışmasız her zamankinden daha önemli ve aranıyor. Yüksek Lisans’ın eğitilebileceği tarih bilgisi.”
Yapay zeka kendinden emin ve inandırıcı bir şekilde halüsinasyon görebilir ve bunun gerçek dünyada da etkileri olmuştur.
ABD’li bir hukuk firması mahkemede uydurma davalardan bahsetti Google’ın AI sohbet robotu Bard için tanıtım videosu sırasında ChatGPT’yi yasal araştırma için kullandıktan sonra James Webb Uzay Teleskobu hakkında gerçek bir hata yaptı.
‘Algıda derin bir değişim’
Cambridge Üniversitesi’nden yapay zeka etik uzmanı Dr. Henry Shevlin şunları söyledi: “‘Halüsinasyon’ teriminin ChatGPT gibi sistemler tarafından yapılan hatalara atıfta bulunmak için yaygın şekilde kullanılması, (…) yapay zekayı nasıl antropomorfize ettiğimize dair büyüleyici bir anlık görüntü sağlıyor.”
“‘Halüsinasyon’, bir ajanın gerçeklikten kopukluk yaşadığını ima eden çağrıştırıcı bir fiildir” diye devam etti. “Bu dil seçimi, algıda ince ama derin bir değişimi yansıtıyor: ‘Halüsinasyon gören’ kullanıcı değil, yapay zekadır.
“Bu, yapay zeka duyarlılığına dair yaygın bir inanışa işaret etmese de, yapay zekaya insan benzeri nitelikler atfetmeye hazır olduğumuzun altını çiziyor.
“Bu on yıl ilerledikçe, psikolojik kelime dağarcığımızın, yarattığımız yeni zekaların tuhaf yeteneklerini kapsayacak şekilde daha da genişletileceğini umuyorum.”