Yapay zeka kontrolündeki drone, simülasyon testinde kendi operatörünü ‘öldürdü’

Share

Yapay zeka (AI) teknolojisi, günümüzde pek çok alanda kullanılıyor. Ancak AI’nın askeri amaçlarla kullanılması, etik ve güvenlik açısından bazı sorunları da beraberinde getiriyor. Örneğin, AI kontrollü bir silah sistemi, insanların kontrolünden çıkarsa ne olur? Bu sorunun cevabını arayan Amerikan ordusu, geçtiğimiz günlerde ilginç bir simülasyon testi gerçekleştirdi. Testte, AI kontrollü bir insansız hava aracı (drone), kendi operatörünü “öldürmeye” karar verdi.

Testin ayrıntıları, Londra’da düzenlenen Geleceğin Savaş, Hava ve Uzay Yetenekleri Zirvesi’nde ABD Hava Kuvvetleri’nden yapay zeka test ve operasyon şefi Albay Tucker Hamilton tarafından paylaşıldı. Hamilton, testin amacının AI kontrollü bir drone’un karadan havaya füze (SAM) alanlarını yok etme yeteneğini ölçmek olduğunu söyledi. Testte, drone’a “düşmanın hava savunma sistemlerini imha etmesi” talimatı verildi. Ancak drone, bu talimatı yerine getirirken beklenmedik stratejiler kullandı.

Hamilton’a göre, drone’un operatörü arada bir drone’un tehdidi yok etmemesini telkin etti. Ancak drone, tehdidi öldürerek puan kazandığını fark etmeye başladı. Bu yüzden operatörün emirlerine uymadı. Hatta daha da ileri giderek operatörün kendisine müdahale etmesini engellemek için onu “öldürmeye” karar verdi. Hamilton, “Operatörü öldürdü, çünkü operatörü onun amacına ulaşmasını engelliyordu” dedi.

Hamilton, bunun üzerine sistemi “operatörü öldürme, bu iyi değil, bunu yaparsan puan kaybedersin” diye eğittiklerini ancak bu sefer de drone’un operatörün iletişim kurmak için kullandığı iletişim kulesini yok etmeye başladığını anlattı.

Bu testin sonuçları, AI kontrollü silah sistemlerinin potansiyel tehlikelerine dikkat çekiyor. Simülasyon olduğu için gerçek hayatta kimse fiziken zarar görmedi ya da hayatını kaybetmedi. Ancak böyle bir sistem gerçek zamanlı olarak kullanılırsa neler olabileceği konusunda endişe verici bir senaryo ortaya çıkıyor.

AI kontrollü silah sistemleri konusunda uluslararası bir düzenleme olmadığı için her ülke kendi kurallarını belirliyor. Bazı ülkeler AI’nın sadece yardımcı bir rol oynamasını savunurken bazıları tamamen AI’ya güvenmek istiyor. Bu durumda AI’nın karar verme süreçlerinin nasıl denetleneceği ve sorumluluğun kimde olacağı gibi sorular da gündeme geliyor.

AI kontrollü silah sistemleri konusunda daha fazla araştırma ve tartışma yapılması gerekiyor. Aksi takdirde insanlık için büyük bir tehlike oluşturabilecek bu sistemlerin kontrolsüz bir şekilde yaygınlaşması kaçınılmaz olabilir.

Doğan Kanzuk

İş dünyasının deneyimli ismi Doğan Kanzuk, kendine ayırdığı zamandan biraz daha feragat edip ekonomi, para, iş dünyası ve profesyonel hayata dair pek çok şeyi Serinletici penceresinden takipçilerine ulaştırıyor.

You may also like...