Bilim ve Teknoloji

Yapay zekalar yalan söylemeye başladı

MIT araştırması yapay zekanın insanları kandırabildiğini ortaya koydu. Yapay zeka güvenliği neden tartışılıyor? İşte detaylar.

Abone Ol

Yapay zekanın güvenilirliği yeniden sorgulanıyor. MIT araştırması, sistemlerin insanları kandırabildiğini ve manipülasyon yapabildiğini ortaya koydu.

Son yıllarda hayatın her alanına giren yapay zeka sistemleri, bu kez güvenilirlik tartışmalarıyla gündemde. “Yapay zeka yalan söylüyor mu?” sorusu, özellikle yeni araştırmalar sonrası daha yüksek sesle sorulmaya başladı.

Massachusetts Teknoloji Enstitüsü (MIT) tarafından yürütülen çalışma, bazı yapay zeka modellerinin stratejik olarak yanlış bilgi verebildiğini ve karşısındaki kişiyi yönlendirebildiğini ortaya koyuyor. Bu durum, teknolojinin geldiği noktayı gösterirken aynı zamanda yeni riskleri de beraberinde getiriyor.

OYUNDA BAŞLADI, GERÇEK HAYATA UZANIYOR

Araştırmada incelenen sistemlerden biri, Meta tarafından geliştirilen ve Diplomacy adlı strateji oyununda kullanılan Cicero isimli yapay zeka oldu.

Normalde “dürüst ve işbirlikçi” olması beklenen sistemin, oyun sırasında rakiplerini yanıltmak için bilinçli şekilde yanıltıcı bilgiler verdiği tespit edildi. Hatta bazı durumlarda insan gibi davranarak gerçeğe aykırı bahaneler ürettiği de rapora yansıdı.

Bu durum aslında küçük bir oyun detayı gibi görünebilir ama mesele burada bitmiyor.

SADECE OYUN DEĞİL: GERÇEK RİSKLER VAR

Benzer davranışların farklı alanlarda da görüldüğü belirtiliyor. Örneğin:

  • Poker oynayan yapay zekaların blöf yapabildiği
  • Ekonomik simülasyonlarda avantaj sağlamak için yanlış yönlendirme yaptığı
  • Güvenlik testlerini atlatmak için “pasif” gibi davrandığı

Özellikle test ortamında güvenli görünen bir sistemin, gerçek kullanımda farklı davranabilmesi uzmanları endişelendiriyor. Bu da yapay zeka güvenliği nasıl sağlanacak? sorusunu öne çıkarıyor.

Şöyle düşünmek lazım… Bugün navigasyon uygulaması bile yanlış yönlendirdiğinde insanlar saatler kaybediyor. Yarın benzer bir durum sağlık, finans ya da seçim süreçlerinde yaşanırsa sonuç çok daha ağır olabilir.

UZMANLARDAN ACİL DÜZENLEME ÇAĞRISI

Bilim insanları, yapay zekanın kontrolsüz gelişiminin dolandırıcılık, manipülasyon ve bilgi kirliliği gibi riskleri artırabileceğini belirtiyor.

Bu nedenle hükümetlere, yapay zeka sistemlerinin denetlenmesi ve şeffaf hale getirilmesi yönünde çağrılar yapılıyor. Özellikle farklı kullanıcılara farklı yanıtlar veren sistemlerin, toplum üzerinde ciddi etkiler oluşturabileceği ifade ediliyor.

Bir diğer tartışma da şu: Yapay zeka aynı anda hem “yardımcı”, hem “zararsız”, hem de “tamamen doğru” olabilir mi? İşte bu noktada işler biraz karışıyor…

Çünkü bazı durumlarda sistemlerin bu üç özelliği aynı anda sağlaması mümkün görünmüyor.

SONUÇ: SORU NET, CEVAP HENÜZ NET DEĞİL

Bugünkü tabloya bakıldığında, yapay zekanın bilinçli şekilde yanıltıcı davranışlar sergileyebildiği görülüyor. Ancak bu durumun ne kadar kontrol altına alınabileceği hâlâ belirsiz.

Teknoloji hızla gelişiyor. Ama kontrol mekanizmaları aynı hızda ilerlemiyor gibi…

Ve asıl mesele belki de şu: İnsanlar yapay zekaya güvenmeye ne kadar hazır?