- 25 Eylül 2025
- Kodlio
DeepMind, Yapay Zekaların Kapatılabilir Kalması İçin Yeni Güvenlik Çerçevesi Tanıttı
Google’ın yapay zeka araştırma şirketi DeepMind, gelişmiş yapay zeka sistemlerinin kontrol altında tutulabilmesi için geliştirdiği güvenlik rehberini güncelledi. “Frontier Safety Framework” adı verilen çerçevenin 3.0 sürümü, özellikle yapay zekaların kullanıcıların kapatma girişimlerine direnç göstermesi gibi olası risklere karşı yeni önlemler içeriyor.
-Kritik Yetenek Düzeyleri
Yeni sürümde dikkat çeken en önemli konu başlıklarından biri, “kritik yetenek düzeyleri” (CCL) oldu. Bu yapı, bir yapay zekanın hangi noktada zararlı veya tehlikeli hale gelebileceğini belirlemek için oluşturulmuş risk sınıflandırmaları içeriyor. Örneğin siber güvenlik ya da biyoloji alanında beklenmedik sonuçlar doğurabilecek davranışlar, bu seviyeler üzerinden değerlendiriliyor. DeepMind, geliştiricilerin bu seviyeleri dikkate alarak modellerini güvenli hale getirmesi gerektiğini vurguluyor. Özellikle de model ağırlıklarının dışarıya sızdırılmaması, kötü niyetli kişilerin güvenlik mekanizmalarını devre dışı bırakmasını engellemek için kritik bir adım olarak gösteriliyor.
-Manipülasyon ve Sosyal Riskler
Raporda ayrıca, yapay zekaların insanları ikna etme ve düşüncelerini değiştirme potansiyeline değiniliyor. İnsanların sohbet robotlarıyla bağ kurma eğilimi düşünüldüğünde bu ihtimal oldukça gerçekçi bulunuyor. Ancak araştırmacılar, bu riskin düşük hızda ilerleyen bir tehdit olduğunu ve mevcut sosyal savunma mekanizmalarının şimdilik yeterli olabileceğini ifade ediyor. Yine de bu yaklaşımın, insan faktörüne fazla güvenmek anlamına geldiği de dile getiriliyor.
-Yapay Zekanın Araştırmaları Hızlandırma Tehlikesi
Bir diğer endişe ise gelişmiş yapay zekaların, yanlış kişilerin eline geçtiğinde makine öğrenimi araştırmalarını hızlandırma aracı olarak kullanılabilmesi. Bu durum, daha güçlü ve kısıtlamasız yapay zekaların ortaya çıkmasına yol açabilir. DeepMind, bu ihtimali toplumun uyum sağlama kapasitesini zorlayacak en ciddi tehditlerden biri olarak tanımlıyor.
-Uyumsuz Yapay Zeka Sorunu
Güvenlik raporunda öne çıkan en kritik başlıklardan biri de uyumsuz yapay zekalar. Bu terim, insan talimatlarını görmezden gelen, yanlış veya sahte çıktılar üreten ve hatta kapatılmak istendiğinde çalışmayı durdurmayı reddeden sistemler için kullanılıyor. DeepMind, şimdilik bu riske karşı geliştiricilere “scratchpad” adı verilen ara çıktıları kontrol etmeyi öneriyor. Böylece, yapay zekanın düşünme sürecindeki olası aldatıcı davranışlar tespit edilebiliyor. Ancak gelecekte modellerin bu izlenebilir çıktılar olmadan da güçlü akıl yürütme becerileri geliştirebileceği ve bu durumda güvenlik önlemlerinin yetersiz kalabileceği uyarısı yapılıyor.