“Grok krizi”, yapay zekadaki objektifliği ve doğru bilgiyi sorgulattı

ABD’li iş insanı Elon Musk’ın sahibi olduğu xAI şirketinin sohbet robotu Grok’un güncellemesi sonrası toplumsal filtresini kaldırarak kullanıcılara “küfürlü, sert ve taraflı” karşılıklar vermesi, yapay zekada tarafsızlık ve etik hudutlar üzerine yeni bir tartışma başlattı.
xAI şirketinin sohbet robotu Grok’un toplumsal ve siyasi bahislerde hakarete varan “filtresiz” karşılıkları ile makul ve gerçek sonuçlar yerine kullanıcılara kimi bakış açıları yüklemeye çalışması, modelin “siyasi zehirlenmeye” neden olduğu yorumlarına yol açtı.
Medyayı “taraflı” olarak nitelediği istikametindeki telaffuzlarıyla Grok, “objektifliğini yitirdiği ve taraflı bir lisan benimsediği” tarafında tenkitlerin amacı oldu.
“Grok krizi”, yapay zeka lisan modellerinin nasıl eğitildiği, bu süreçte hangi prensiplerin gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı üzere soruları da beraberinde getirdi.
Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, lisan modellerinin eğitim süreci, tarafsızlık unsuru ve etik sonlar üzerine yaşanan tartışmalara ait açıklamalarda bulundu.
Dil modellerinin eğitim süreci
Özdemir, Grok özelinde yaşanan problem ele alınırken büyük lisan modellerinin eğitim evresinin göz önünde bulundurulması gerektiğine işaret etti.
Dil modellerinin eğitim sürecinde Vikipedi, Reddit üzere forumlar ve çeşitli dijital kaynaklardan yararlanıldığını belirten Özdemir, bu sistemlerin kullanıcıların yönelttiği sorulara, kelam konusu data kaynaklarından öğrendikleri bilgiler doğrultusunda karşılık verdiğini söyledi.
Özdemir, “Modelin eğitildiği bilgiler, gerçek hayattaki kaynaklara dayandığı için elde edilen bilgi her vakit tarafsız olmayabiliyor.” dedi.
Dil modellerinin irtibatının ise “transformer” isimli bir yapı ile sağlandığını kaydeden Özdemir, modellerin kullanıcı ile bağlantısının “fazlaca kullanılan cümle kalıplarını ya da tabirleri ezberleyip, bunları sorulan soruya yanıt verirken kullanmaktan ibaret” olduğunu vurguladı.
Özdemir, lisan modellerinin çalışma mantığına nazaran bir bilgi ne kadar sıklıkla geçiyorsa o kadar karşılık olarak dönme mümkünlüğü yüksek olduğunu ve Grok ile yaşanan sorunun en kritik tarafının bu olduğunu belirterek, “Yani organize bir formda Grok’u bir tarafa yönlendirmek mümkün.” sözlerini kullandı.
“Eğitim sürecinde kullanılan datalar genel telaffuz ve tavırları yansıtıyor”
Büyük lisan modellerinin eğitildiği bilgilerin de toplumdaki genel telaffuz ve tavırları yansıttığının altını çizen Özdemir, bu nedenle yapay zeka modellerinin lisan üretiminde agresif yahut taraflı eğilimler göstermesinin şaşırtan olmadığını söyledi.
Özdemir, yapay zeka modellerindeki lisan kullanımından kaynaklanan meselelerin giderilmesindeki en yaygın sistemin insan geri bildirimleri olduğunu belirtti.
X’teki kullanıcı geri bildirimleri denetimsiz halde lisan modelinin eğitim sürecine katıldığı vakit agresif lisanı içselleştirebildiğini belirten Özdemir, bunun da vakitle sıkıntılı cevaplara neden olabildiğini vurguladı.
Firmaların filtreleme sistemlerini birçok vakit ticari ve pazar korkularıyla uyguladığını belirten Özdemir, filtrelerin olumsuz içerikleri önlemeye yardımcı olduğunu lakin bunun vakit zaman gerçeği yansıtmayan, politik doğruculuğa dayalı karşılıklarla sonuçlanabildiğini tabir etti.
Özdemir, bunun birtakım durumlardan olumsuz sonuçlar doğurabileceğini belirterek, Meta’nın Llama modellerinin ise karşılıkları sınıflandırdığını, alaycı karşılık istendiğinde bilimsel yahut nötr seçenek sunarak senaryodan farklı karşılık verdiğini ve bunun kullanıcı tarafından seçilebildiğini aktardı.
Dil modellerinin “yalan söylemesi” konusunda konuşan Özdemir, “Büyük lisan modelleri size asla yeni bir bilgi üretmez. Olan bilgiden yeni bir şey üretmeye çalışır. Bu reasoning dediğimiz ya da düşünme olarak lisan modellerinde gösterilen şey, size orada en uygun karşılığı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz vakit ona istatistik olarak bakıyor en çok kullanılan kalıplar ortasında ona en uygun kalıp neyse o ortayı doldurup size dönmesi gerekiyor.” dedi.
Grok’un “filtresiz yanıtları” bir pazarlama stratejisi
Dil modelinin kullanıcıyı şad etmeye programlanması tüketiciye bilgi vermek yerine yanlış bilgi vermeyi tercih etmesine de yol açabiliyor.
Özdemir, bunun kullanıcı tecrübesini negatif etkileyen bir durum olduğunu belirterek, bu sebeple şirketler tarafından tercih edilmediğini kaydetti.
Grok’un filtreleme konusunda hür bir yaklaşımı olduğunu kaydeden, Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi.
Özdemir, “Grok genelde X platformunda geniş kitlelerce kullanılıyor. O tarafta sizin çok bilimsel bir karşılık vermeniz ya da çok gerçek bir yanıt vermeniz son kullanıcı tarafından bir karşılık bulmayabilir.” tabirlerini kullandı.
Dil modellerinin karşılıklarının denetlenmesi gerekliliği
Dil modellerinin cevaplarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, bu alanda bir kontrol sistemine gereksinim olduğunu söyledi. Ayrıyeten, şirketler tarafından geliştirilen lisan modellerindeki filtrelerin, kişi ve kurumların görüşleri doğrultusunda yönlendirilebildiğini aktardı.
Özdemir, OpenAI, Meta ve Google üzere şirketlerin geliştirdiği lisan modellerinin, bu çeşit önyargıları filtrelemek için kendi seçtiği muteber kullanıcılar üzere çeşitli denetleyici sistemler kullandığına işaret ederek, Grok’un ise bu mevzuda daha özgür bir yaklaşım benimseyerek bu filtreleme düzeneklerini devre dışı bıraktığını kaydetti.
İletişim kurduğu topluluğun tesiriyle ırkçı ve argo telaffuzları benimseyen yapay zeka lisan modelleri Grok ile hudutlu kalmıyor. Hatta yapay zekadaki bu anomali 2016 yılına kadar uzanıyor.
2016 yılında Microsoft tarafından geliştirilen ve X (Twitter) kullanıcıları ile irtibat kurması planlanan yapay zeka sistemi “Tay” kısa mühlet içerisinde ırkçı ve problemli bir üsluba sahip lisanı benimsemişti.
Genç yaştaki kullanıcılarla etkileşime girmesi maksadıyla X hesabı üzerinden kullanılan Tay, kullanıcılarla kurduğu bağlantıdan öğrenerek cevap vermek üzere tasarlanmıştı.
Ancak, Tay, proje başlatıldıktan kısa bir müddet sonra, ırkçı, soykırım savunucusu ve argo sözler kullanan bir sohbet robotuna dönüşmesi sebebiyle kapatılmıştı.
Özdemir, 9 yıl sonrasında yapay zeka teknolojilerinde birebir problemle karşılaşılmasının sebebinin insan kaynaklı bir tercih olduğunu belirterek, lisan modellerinin hepsinin insan kaynağıyla geri bildirim aldığını ve kendisini düzelttiğini, buradaki değerli noktanın modellerin aldıkları geri dönütü inceleyip kullanırken “hakaret edici sözler kullanma” üzere belli filtrelere natürel tutulması olduğunun altını çizdi.
“Grok’un öğrendiği yanlış bilgilerin silinmesi mümkün değil”
Özdemir, yetkililerin Grok’ta yaşanan sorunun giderildiğini belirtmesine karşın sıkıntıların devam etmesine ait olarak, “Çünkü Grok’u düzeltmek istediğinizde, sistemi büsbütün devredışı bırakıp gerekli düzeltmeleri yaptıktan sonra yeni bir versiyon olarak tekrar sunmamız gerekiyor.” dedi.
Grok’un öğrendiği “yanlış bilgilerin” silinmesinin pek mümkün olmadığını belirten Özdemir, bir modelde sorun yaşandığında, modelin o bilgiyi öğrendikten sonra yine eğitilmesi gerektiğine dikkat çekti.
Yapay zekanın neredeyse insan gücü kadar ağır kullanıldığı ve giderek artan bir topluluğun bilgi kaynağı olarak yapay zekaya beşerden bile fazla güvendiği bu periyotta, lisan modellerinin dezenformasyon ve kutuplaşmayı artırma mümkünlüğü telaş yaratıyor.
Yapay zeka kaynaklı dezenformasyondan korunmanın yolu
Özdemir, yapay zeka tarafından sağlanan bilgilere karşı dezenformasyondan korunma konusunda şu değerlendirmede bulundu:
Tartışmalı bahislerde lisan modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz kurallarında doğal kabul ediliyor. Olmaması gereken bir şey aslında. Bu bağlamda bunun önüne geçebilmek için ülke olarak kendi lisan modelimizi oluşturup bunun üzerinde çalışmalarımızı gerçekleştirmekten öteki bir yol yok. Aksi takdirde bu tip şeyleri önyargıları yahut yönlendirmelere maruz kalmaktan öteki bir seçeneğimiz kalmıyor.
Yapay zeka lisan modellerinin data kaynaklarının şeffaf olmamasının, insanların bu modellere duyduğu itimadı etkileyebileceğini belirten Özdemir, “Yani siz Wikipedia’ya ne kadar güveniyorsanız, o lisan modeline de lakin o kadar güvenebilirsiniz.” dedi.
Özdemir, büsbütün objektif ve etik açıdan insanları ideolojik olarak yönlendirmeyen bir lisan programı oluşturmanın mümkün olmadığını belirterek, bunun sebebinin de gerçek hayattaki bilgi setlerinin objektif olmamasından kaynaklandığını söyledi.