Yapay zeka insan davranışlarını iddia edebilir mi?
Dil modeli tabanlı yapay zeka uygulamaları, insan davranışlarını giderek daha âlâ taklit ediyor. Pekala bu modeller insan kararlarını da öngörebilir mi?
Münih’teki Helmholtz İnsan Merkezli Yapay Zeka Enstitüsü liderliğindeki bir memleketler arası grup, “Centaur” isimli yeni bir model geliştirdi.
Temelinde, Meta AI’nin açık kaynaklı lisan modeli bulunan Centaur, 160 ruhsal deneyden elde edilen bilgilerle eğitildi. 60 bin kişinin katıldığı bu testlerde iştirakçilere obje sınıflandırma ya da kumar üzere karar verme vazifeleri verildi.
10 milyon karar verisiyle eğitildi
Centaur, 10 milyondan fazla karar verisiyle oluşturuldu. Bu dataların yüzde 90’ı eğitim için kullanılırken kalan yüzde 10’u test için ayrıldı. Sonuç: Model, insan kararlarını yüzde 64’e varan doğrulukla kestirim edebildi. Model, eğitim bilgilerinden farklı senaryolarda da makul sonuçlar verdi.
İsviçre’deki St. Gallen Üniversitesi Davranış Bilimi ve Teknoloji Enstitüsü Yöneticisi Clemens Stachl, Centaur’un yeniliğini, “davranış bilgilerinin lisana çevrilerek modele aktarılması” olarak tanımlıyor. Ona nazaran bu stil modeller; eğitim, perakende, hatta askeri uygulamalarda kullanılabilir.
Centaur’un altyapısında Google ve Meta’nın teknolojileri bulunuyor. Stachl’a nazaran, büyük teknoloji şirketleri benzeri modelleri aslında kullanıcı tercihlerini iddia etmek için kullanıyor. ChatGPT ya da Tiktok’un teklif algoritmaları, bunun mevcut örnekleri.

Fotoğraf: C. Hardt/Future Image/IMAGO
Bilim insanlarından ikaz: Abartmayın!
Ancak birtakım uzmanlar, Centaur’un uygulama alanlarının hâlâ hudutlu olduğunu düşünüyor. Freiburg Üniversitesi’nden psikolog Markus Langer, kullanılan testlerin günlük hayatı yansıtmadığını, bu yüzden genellemeler için erken olduğunu belirtiyor.
Langer’a nazaran, “Davranışı artık tam olarak öngörebiliyoruz” üzere yorumlar, yanlış beklentilere yol açabilir. Ayrıyeten yüzde 64 doğruluk oranının ne kadar “başarılı” sayılacağı da tartışmalı.
Yapay zekâ davranış iddiası yapmalı mı?
Stachl, Centaur’un temel bilim için kıymetli olduğunu söylüyor. Lakin tıpkı vakitte, bu modellerin insanı daha öngörülebilir ve bağımlı hale getirme riski taşıdığını vurguluyor. Medya kullanımı ve dijital araçlar aracılığıyla davranış datalarımız daima toplanıyor.
Bu yüzden Stachl, toplumun bu teknolojilere nasıl yaklaşması gerektiğini tartışması gerektiğini savunuyor. Hukukçular ve siyasetçilerin de bu alanda daha etkin olması gerekiyor.
Grok’un küfürlü ve hakaret içerikli paylaşımları
Yapay zeka modellerinin ne kadar hassas bahislerde denetimden çıkabileceğini gösteren son örnek geçtiğimiz günlerde yaşandı. Elon Musk’un xAI firmasına ilişkin “Grok” isimli sohbet robotunun verdiği küfürlü ve antisemitik karşılıklar toplumsal medyada büyük reaksiyon topladı. Grok’un geliştiricisi xAI, yanılgılı içerikleri kaldıracağını ve nefret telaffuzuna karşı tedbir aldığını duyurdu.

Gemini, Copilot yahut ChatGPT üzere yapay zeka modellerinin gerçekte bizi ne kadar güzel tanıdığı sıkı formda korunan bir “ticari sır”.Fotoğraf: Jaque Silva/NurPhoto/picture alliance
Uzmanlara nazaran, Grok üzere sistemlerde eğitimin şeffaf olmaması büyük sorun. Modellerin hangi datayla eğitildiği ve hangi kurallara nazaran çalıştığı açıkça belirtilmeli. Grok’un bilgi kaynağı olarak büyük oranda X platformunu kullanması, taraflı içeriklere açık hale getiriyor.
Türkiye Grok’un tartışmalı paylaşımlarını engelledi
Grok daha evvel de “Elon Musk ya da Donald Trump yanlış bilgi yaydı” diyen kaynakları kullanmaması tarafında programlandığı ortaya çıkmıştı.
Bu tıp manipülasyonların tespiti sıkıntı olabilir, lakin sonuçları önemli.
Grok’un kimi paylaşımlarına, Türkiye’de Cumhurbaşkanı Erdoğan’a ve Muhammed Peygamber’e hakaret içerdiği gerekçesiyle erişim pürüzü getirildi.
Polonya da AB seviyesinde inceleme başlatmak istiyor. Polonya Dijitalleşme Bakanı Krzysztof Gawkowski, “Algoritmalarla yayılan nefret söylemi yeni bir düzeye ulaştı. Bu görmezden gelinmemeli” diyerek sorunun ciddiye alınmasının gerekliliğine vurgu yaptı.