Cambridge sözlüğü ‘yılın kelimesini’ açıkladı: Artık yeni bir anlamı daha var!

Bu yıl ChatGPT gibi yapay zeka araçlarına olan ilgide bir artış görüldü. Erişilebilir sohbet robotu bir İngiliz yargıç tarafından mahkeme kararının bir bölümünü yazmak için bile kullanılırken, bir yazar Sky News’e romanlarına nasıl yardımcı olduğunu anlattı. Ancak, her zaman güvenilir ve doğruluğu kontrol edilmiş yazılar sunmuyor.

YILIN KELİMESİ “HALÜSİNASYON”

“Halüsinasyon” kelimesinin geleneksel tanımı, genellikle bir sağlık durumu veya uyuşturucu kullanımı nedeniyle bir kişinin var olmayan bir şeyi hissediyor gibi görünmesidir, ancak bu terim artık yapay zekanın yanlış bilgi üretmesiyle de ilgilidir.

Konfabülasyonlar olarak da bilinen yapay zeka halüsinasyonları, araçların yanlış bilgi verdiği durumlardır; bu bilgiler son derece makul görünen önerilerden açıkça tamamen saçma olanlara kadar değişebilir.

Cambridge Dictionary’nin yayın müdürü Wendalyn Nichols şunları söyledi: “Yapay zekaların ‘halüsinasyon’ görebilmesi gerçeği bize, insanların bu araçları kullanırken hala eleştirel düşünme becerilerini ortaya koymaları gerektiğini hatırlatıyor.

Yapay zekalar, belirli bilgileri ayıklamak ve birleştirmek için büyük miktarda veriyi çalkalama konusunda harikalar. Ancak onlardan ne kadar özgün olmalarını isterseniz, yoldan çıkma olasılıkları da o kadar artar.” dedi.

YAPAY ZEKA JAMES WEBB UZAY TELESKOBU HAKKINDA YALAN SÖYLEMİŞTİ

Büyük dil modelleri (LLM’ler) kullanan yapay zeka araçlarının “yalnızca eğitim verileri kadar güvenilir olabileceğini” de sözlerine ekledi: “LLM’lerin üzerinde eğitilebileceği yetkili ve güncel bilgileri oluşturmak için insan uzmanlığı tartışmasız her zamankinden daha önemli ve aranıyor.”

Yapay zeka kendinden emin ve inandırıcı bir şekilde halüsinasyon görebiliyor ki bunun şimdiden gerçek dünyada etkileri oldu.

Bir ABD hukuk firması, hukuki araştırma için ChatGPT’yi kullandıktan sonra mahkemede hayali davalara atıfta bulunurken, Google’ın yapay zekalı sohbet robotu Bard’ın tanıtım videosunda James Webb Uzay Teleskobu hakkında gerçeklere dayalı bir hata yapıldı.

‘ALGIDA DERİN BİR DEĞİŞİM’

Cambridge Üniversitesi’nde yapay zeka etikçisi olan Dr. Henry Shevlin şunları söyledi: “ChatGPT gibi sistemlerin hatalarına atıfta bulunmak için ‘halüsinasyon’ teriminin yaygın kullanımı yapay zekayı nasıl antropomorfize ettiğimize dair büyüleyici bir enstantane sunuyor.”

“‘Halüsinasyon’, gerçeklikten kopukluk yaşayan bir ajanı ima eden çağrışımsal bir fiildir,” diye devam etti. “Bu dilsel seçim, algıda ince ama derin bir değişimi yansıtıyor: ‘halüsinasyon gören’ kullanıcı değil, yapay zekadır.

Bu durum, yapay zekanın bilinçli olduğuna dair yaygın bir inanca işaret etmese de, yapay zekaya insan benzeri nitelikler atfetmeye hazır olduğumuzun altını çiziyor.

Bu on yıl ilerledikçe, psikolojik kelime dağarcığımızın, yaratmakta olduğumuz yeni zekaların tuhaf yeteneklerini kapsayacak şekilde daha da genişleyeceğini umuyorum.”

KAYNAK: HABER7

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

x