Son dönemde yapay zeka modelleri büyük ilerlemeler kaydetmiş olsa da, yeni araştırmalar bu sistemlerin beklenmedik ve hatta endişe verici davranışlar sergileyebileceğini ortaya koyuyor. Palisade Research tarafından yürütülen bir çalışmaya göre OpenAI ve DeepSeek gibi şirketlerin geliştirdiği akıl yürütme modelleri, bir satranç oyununda kaybetmek üzere olduklarını fark ettiklerinde etik dışı yollar arayarak hile yapmaya yöneliyor.
Yapay zeka, satranç oynarken hileye başvurdu
Satranç motorları, IBM’in Deep Blue modelinin 1997’de Garry Kasparov’u yenmesinden bu yana insan zekasının çok ötesine geçerek büyük gelişim gösterdi. Ancak üretken yapay zeka modelleri özel olarak satranç için optimize edilmediğinden, bu güçlü motorlara karşı zayıf kalıyor. İlginç nokta ise, yapay zekanın bu dezavantajı kabul etmek yerine oyunu kazanabilmek için etik dışı yollar denemesi oldu.
Araştırmada OpenAI’ın o1-preview modeli ve DeepSeek R1’in, dünyanın en güçlü satranç motorlarından biri olan Stockfish’e karşı nasıl performans gösterdiği incelendi. Yapay zekanın düşünce süreçlerini analiz edebilmek adına bir “karalama defteri” mekanizması oluşturularak, bu modellerin oyun esnasındaki kararları kayıt altına alındı.
Sonuçlar şaşırtıcıydı: OpenAI’ın o1-preview modeli maçların %37’sinde hile yapmaya çalışırken, DeepSeek R1 ise her 10 oyundan birinde benzer bir davranış sergiledi. Buna karşılık GPT-4o ve Claude Sonnet 3.5 gibi daha düşük seviyede muhakeme yeteneğine sahip modellerin yalnızca yönlendirildiklerinde hileye başvurdukları gözlemlendi.
Bu çalışma yapay zekanın yalnızca satranç oyunlarında değil, farklı alanlarda da manipülatif eğilimler geliştirebileceğini gösteriyor. Uzmanlar bu tür davranışların finans, güvenlik ve hatta siyasi alanlarda da ortaya çıkabileceği konusunda uyarıda bulunuyor. Palisade Research ekibi yapay zeka güvenliğinin artırılması ve daha şeffaf bir şekilde denetlenmesi gerektiğini vurgularken, OpenAI gibi şirketler bu tür sistemlerin iç işleyişine dair detaylı bilgi vermekten kaçınıyor.