İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Amazon, Microsoft, 'Dünyayı Katil AI Riskine Koymak': Çalışma

Şu an okuyorsunuz: Amazon, Microsoft, 'Dünyayı Katil AI Riskine Koymak': Çalışma

Amazon, Microsoft ve Intel, sektördeki önde gelen oyuncuları öldürücü özerk silahlara karşı tutumları konusunda inceleyen bir rapora göre, dünyayı katil robot gelişimi ile tehlikeye sokan lider teknoloji şirketleri arasında.

Hollandalı NGO Pax, 50 şirketi üç kriterde sıraladı: ölümcül AI ile ilgili olabilecek teknolojiyi geliştirip geliştirmeme, ilgili askeri projeler üzerinde çalışıp çalışmadıklarına ve gelecekte katkıda bulunmamaya kararlı olup olmadıklarına.

“Neden Microsoft gibi şirketler ve Amazon İnsanların doğrudan katılımı olmadan insanları öldürmeye karar verebilecek olan oldukça tartışmalı bu silahları geliştirdiklerini inkar etmiyorlar mı? “dedi.

Silah sistemlerinin özerk bir şekilde seçilmesi ve hedeflere saldırması için AI’nın kullanılması son yıllarda etik tartışmalara yol açtı, eleştirmenler uluslararası güvenliği tehlikeye atacaklarını ve barut ve atom bombası sonrası savaşta üçüncü bir devrimi haber verdiklerini söyledi.

Hükümet uzmanlarından oluşan bir panel, Çarşamba günü Cenevre’de Birleşmiş Milletler Konvansiyonel Silahlarla İlgili Birleşmiş Milletler Konvansiyonu toplantısında öldürücü özerk silahlarla ilgili politika seçeneklerini tartıştı.

Geçen yıl silah sistemlerinde kullanılmak üzere AI’dan kaçınan yol gösterici ilkeler yayınlayan Google, insansı Biber robotu için en iyi bilinen Japonya’nın Softbank’ı olduğu gibi 12 ülkeyi kapsayan analizde “en iyi uygulama” yı buldu.

Yirmi iki şirket “orta düzeyde kaygılı” idi, 21 ise özellikle “yüksek kaygı” kategorisine girdi Amazon ve ABD ordusu için bulut altyapısını sağlamak için her ikisi de 10 milyar dolarlık Pentagon sözleşmesi teklifinde bulunan Microsoft.

“En yüksek endişe” grubundaki diğer kişiler arasında, CIA destekli bir girişim sermayesi kuruluşunda kökleri olan ve “askerlerin gerçek zamanlı olarak bir savaş bölgesini analiz etmelerine yardımcı olabilecek” bir AI sistemi geliştirmek için 800 milyon dolarlık bir sözleşme alan Palantir vardır.

Kaliforniya Üniversitesi Bilgisayar Bilimleri Profesörü Stuart Russell, “Özerk silahlar kaçınılmaz olarak ölçeklenebilir kitle imha silahları haline gelecektir, çünkü eğer insan döngü içinde değilse, o zaman tek bir kişi bir milyon silahı veya yüz milyon silahı başlatabilir” dedi. Berkeley AFP’ye Çarşamba günü söyledi.

“Gerçek şu ki, özerk silahların şirketler tarafından geliştirileceği ve özerk silahların yaygınlaşmasını önleme kampanyası açısından çok büyük bir rol oynayabileceklerini” söyledi.

Askeri amaçlar için AI’nın geliştirilmesi, sektördeki tartışmaları ve protestoları tetikledi: geçen yıl Google, drone videolarındaki insanları ve nesneleri ayırt etmek için makine öğrenmesini kullanan Project Maven adlı bir Pentagon sözleşmesini yenilemeyi reddetti.

Ayrıca, bulut sözleşmesi olan Ortak Kurumsal Savunma Altyapısı (JEDI) ‘nın yayınlanmasının dışında bırakıldı. Amazon ve Microsoft çanta almayı umuyor.

Raporda, Microsoft çalışanlarının, savaş alanındaki “ölümcül artırmayı” amaçlayan artırılmış gerçeklik mikrofonu HoloLens için ABD Ordusu sözleşmesine muhalefet ettiklerini de belirtti.

Neye benzeyebilir
Russell’a göre, “şu anda silah olan herhangi bir şey, insanlar ister tank ister savaş uçağı ister denizaltı olsun, özerk versiyonlarda çalışıyorlar.”

İsrailli Harpy zaten var olan, hedef bölgede “dolaşan ve vurulacak siteleri seçen” özerk bir dron.

Daha endişe verici olanı, henüz var olmayan yeni özerk silah kategorileridir – bunlar 2017 kısa filmi “Slaughterbots” da öne sürülen silahlı mini uçağı içerebilir.

Russell, “Bu tür bir silahla, bir milyon adetini bir konteyner veya kargo uçağı içerisine gönderebilirsiniz – böylece nükleer bombaların yok edici kapasitesine sahip olurlar, ancak tüm binaları geride bırakırlar” dedi.

Yüz tanıma teknolojisini kullanarak, dronlar “bir etnik grubu veya bir cinsiyeti silebilir ya da tüm insanları politik bir bakış açısıyla silebileceğiniz sosyal medya bilgilerini kullanarak”.

Nisan ayındaki Avrupa Birliği, şirketlerin ve hükümetlerin insan gözetimine duyulan ihtiyaç, sosyal ve çevresel refah için ayrımcı olmayan bir şekilde çalışmak ve mahremiyete saygı duymak dahil olmak üzere AI’yı nasıl geliştirmeleri gerektiği konusunda kılavuzlar yayınladı.

Russell, bir sonraki adımı, ölümcül AI’da uluslararası bir yasaklama şeklinde atmanın, “insanları öldürmeye karar verebilecek makineler geliştirilmeyecek, konuşlandırılmayacak ya da kullanılmayacak” olarak özetlenebileceğini savundu.