Ölüm kalım anlarında karar, yapay zekâda olacak
Ordu, yapay zekânın (AI) savaşta insan karar alma mekanizmasına müdahale etmesini istiyor. Savaş dönemi gibi kriz anlarında hangi hastalara …
Ordu, yapay zekânın (AI) savaşta insan karar alma mekanizmasına müdahale etmesini istiyor. Savaş dönemi gibi kriz anlarında hangi hastalara öncelik verileceği, kimin bekleyebileceği konusunda yapay zekânın devreye girmesi için çalışmalar başladı.
Geçen yıl ağustos ayında bir intihar bombacısı Kabil Uluslararası Havalimanı’na saldırdı. 13 ABD askeri de dahil olmak üzere 183 kişi öldü. Bu tip bir şiddet, özellikle saha çalışanları için son derece zor. Yüzlerce insanın bakıma ihtiyacı var, yakınlardaki hastanelerde sınırlı yer var ve kimin önce bakım alacağına ve kimin bekleyebileceğine dair kararların hızlı bir şekilde alınması gerekiyor. Üstelik çoğu zaman cevap hem net değil hem de herkes tarafından kabul edilebilir değil.
ABD ordusunun inovasyon kolu olan Savunma İleri Araştırma Projeleri Ajansı (DARPA), karar verme sürecini yapay zekâ ile atlatmayı hedefliyor. “In the Moment” adlı yeni bir program üzerinde çalışan araştırmacılar, lansmanda insan önyargılarını ortadan kaldırmanın hayat kurtarabileceğini savunarak, algoritmalar ve veriler kullanarak stresli durumlarda hızlı kararlar verecek bir teknoloji geliştirmek istediklerini açıkladılar.
ASKERÎ ALANDA DA KULLANILACAK
1958 yılında Başkan Dwight D. Eisenhower tarafından kurulan DARPA, internet, GPS, hava durumu uyduları ve daha yakın zamanda Moderna’nın corona virüsü aşısı dahil olmak üzere çok sayıda yenilikte rol oynayan projeleri ortaya çıkaran teknoloji araştırmalarında en etkili kuruluşlar arasında yer alıyor.
Ancak ajansın AI ile geçmişi diğer alanlarda olduğu kadar eski değil. 1960’larda ajans, doğal dil işlemede ve bilgisayarların satranç gibi oyunlar oynamasını sağlamada ilerlemeler kaydetti. 1970’lerde ve 1980’lerde, özellikle bilgi işlem gücündeki sınırlamalar nedeniyle ilerleme durdu.
BİR ARAÇ DEĞİL, MESLEKTAŞ OLACAKLAR
2000’li yıllardan bu yana, grafik kartları geliştikçe, bilgi işlem gücü ucuzladıkça ve bulut bilişim patlamasıyla birlikte, ajans askeri uygulamalar için yapay zekâ kullanımında bir canlanma gördü. 2018’de, AI Next adlı bir program aracılığıyla, AI’yi 60’tan fazla savunma projesine dahil etmek için 2 milyar dolar ayırdı ve bilimin gelecekteki savaşçılar için ne kadar merkezi olabileceğini gösterdi.
Ajans, AI Next programını duyururken, “DARPA, makinelerin sadece araçlardan daha fazlası olduğu bir gelecek öngörüyor. DARPA’nın öngördüğü makineler, araçlardan çok meslektaşlar olarak işlev görecek” dedi.
İNSANLARIN BULAMAYACAĞI ÇÖZÜMLER BULACAKLAR
DARPA’da program yöneticisi olarak görev alan Matt Turek, algoritmaların önerilerinin, son derece güvenilir insanları modelleyeceğini söyledi. Ancak, deneyimli uzmanların bile şaşıracağı durumlarda akıllıca kararlar almak için bilgilere erişebilecekler. Örneğin, AI’nin yakındaki bir hastanenin sahip olduğu tüm kaynakları belirlemeye yardımcı olabileceğini söyledi.
Turek, “Bilgisayar algoritmaları, insanların bulamayacağı çözümleri bulabilir” dedi.
Ancak yapay zekâya şüpheli yaklaşanlar da var. New School’da bir AI filozofu olan Peter Asaro, askeri yetkililerin, karar verme sürecinde algoritmaya ne kadar sorumluluk verildiğine karar vermeleri gerektiğini söyledi. Liderlerin, etik durumların nasıl ele alınacağını da anlamaları gerekeceğini sözlerine ekledi. Örneğin, büyük bir patlama olursa ve zarar görenler arasında siviller de olsa ağır yaralansalar bile daha az öncelik alırlar mı diye sordu.
AYRIMCILIK TEHLİKESİ
Bu arada, AI etiğine odaklanan bir antropolog olan Sally Applin de program şekillenirken, DARPA’nın algoritmasının, önyargılı karar vermeyi sürdürüp sürdürmeyeceğinin önemli olacağını söyledi. Örneğin bakım için beyaz hastalar siyahlara tercih edilebilir:
“Yapay zekâda önyargı olduğunu biliyoruz; programcıların her durumu öngöremediklerini biliyoruz; AI’nın sosyal olmadığını biliyoruz; AI’nın kültürel olmadığını biliyoruz.”