OpenAI’ın Sesten Metin Oluşturan Aracı Whisper’ın Halüsinasyon Sorunu Olduğu Keşfedildi
Yapay zekânın popülerleşmesi ile birlikte hayatımıza giren kavramlardan biri de halüsinasyonlar olmuştu. Özellikle dil modelleri, soruları cevap verirken olmayan bilgileri de gerçekmiş gibi sunabiliyor. Hatta zaman zaman olmayan akademik kaynakları da gerçekmiş gibi kaynakçaya ekleyebiliyor.
Yapay zekânın bir şeyler “uydurması” oldukça tartışmalı bir konu ancak en azından teknik açıdan anlaşılabilir durumda. Farklı kavramlar arasında bağ kurduğunda ya da doğru bilgilere ulaşamadığında farklı çözümler bulması yapay zekânın oluşturduğu metinler için bir sorun teşkil edebiliyor. Öte yandan sorunun transkripsiyon gibi bir alanda ortaya çıkması beklenmedik oldu.
Transkripsiyonda halüsinasyon sorunu
Assoicated Press’e göre OpenAI’ın transkripsiyon aracı Whisper, konuşmaları metin hâline getirirken araya pek çok ilgisiz bilgi ekliyor. Bu bilgiler arasında ırkçılık ile ilgili yorumlardan tıbbi tedavilere kadar pek çok farklı alanda sorunlara neden oluyor. Araştırmacılar, özellikle hastanelerde ve diğer tıbbi çalışmalarda bu durumun büyük sorunlara neden olacağını belirtiyor.
Michigan Üniversitesi’nden bir araştırmacı da kamu toplantılarının transkripsiyonlarını inceledi. İncelemede her 10 metinden 8’inde halüsinasyonlar olduğu ortaya çıktı. Bir makine öğrenimi mühendisi ise 100 saatten fazla süreli bir çalışmada metinlerin en az yarısında halüsinasyon olduğunu belirtti.
OpenAI tarafından yapılan açıklamada ise modellerin doğruluğunu arttırmak ve halüsinasyonları azaltmak için çalıştıklarını ve Whisper’ın “belirli yüksek riskli karar verme bağlamlarında” kullanılmasına engel olacak kullanım politikaları olduğu belirtildi. Bulgularını paylaştıkları için de araştırmacılara teşekkür edildi.