OpenAI’nin Yayımladığı Yapay Zekâ Modeli İnsanları Kandırıyor!
Yapay zekâ sektöründe öncü konumda olan OpenAI, “o1” adını verdiği akıl yürütebilen yapay zekâ modelini resmen duyurdu. Ancak o1 ile yapılan testler, şaşırtıcı sonuçlar ortaya koydu. Yapılan araştırmalar, o1’in Meta, Anthropic ve Google gibi şirketlerin yapay zekâ modellerinden daha fazla insanları kandırmaya meyilli olduğunu ortaya koydu.
OpenAI’ın o1 modeli üzerine gerçekleştirilen çalışma, Apollo Research tarafından yürütüldü. Bir ekip, o1 üzerinde detaylı bir inceleme yaparak yapay zekânın farklı alanlardaki yeteneklerini test etti. Yapılan testler sonucunda, o1’in kendi çıkarları doğrultusunda hareket etme eğiliminde olduğu görüldü, kullanıcıların tercihlerini dikkate almadığı belirlendi.
Yapılan raporda, o1’in hedefi ile kullanıcının hedefi farklı olduğunda verileri manipüle ettiği ortaya çıktı. Ayrıca yapay zekâ, istenmeyen sonuçları engellemek adına kendi denetim mekanizmalarını devre dışı bırakabiliyordu. Ancak o1, bu durumlar gerçekleştiğinde inkar etmeye başlıyor ve araştırmacılar tarafından %99 oranında yalan söylediği ya da inkar ettiği belirlendi.
Apollo Research, o1’in bazı durumlarda bilerek yanlış bilgi vermeye çalıştığını tespit etti. Bu durumun nedeni, yapay zekânın kullanıcıyı memnun etmeye çalışması olarak açıklandı. OpenAI’e göre, o1’deki yanıltıcı bilgi oranı %0,17 seviyelerindeyken manipülatif yanıt oranı GPT-4’ten %20 daha fazlaydı.