İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

AI Etik: Bu Teknolojiyi Sorumlu Olarak Kullanabilir miyiz?

Şu an okuyorsunuz: AI Etik: Bu Teknolojiyi Sorumlu Olarak Kullanabilir miyiz?

Bilgi tek başına ahlaki olarak nötrdür. Örnek olarak atom bilimini ele alalım. Tıbbi cihazlar veya atomik güç istasyonları yapmak gibi yapıcı şeyler yapmak için kullanabilirsiniz. Aynı bilgiyi bir bomba yapmak için de kullanabilirsiniz. Nasıl karar veren bir insan. Bilgiyi etik veya etik olmayan yollarla uygulamayı seçme. Peki ya AI etik?

AI etiği farklı değildir. Yapay zeka zaten bazı inanılmaz güçlü araçlar üreten bir alandır. Sadece kısa ila orta vadeli baktığımızda, AI’nın 21. yüzyılın belirleyici teknolojisi haline geldiği açık. Bu da şaşırtıcı değil. Dünyamızın, toplumumuzun ve sorunlarımızın karmaşıklığı, insan zekasının yapabileceklerini aşıyor. Yapay zekanın yardımı olmadan tıpta, çevrede ve günlük yaşamın sadece yönetimi zor konular ya imkansız ya da gereksiz yere zor olacaktır.

Zaten amaçlayan önleyici hareketler var. yasakla AI. En azından bazı değişkenleri. Bununla birlikte, bu tür faydalı araçlar sağlayan bir alanın karıştırılması muhtemel değildir. Yapabileceğimiz en iyi şey, AI teknolojisinin nasıl düzenleneceği ve uygulanacağı konusunda titizlikle düşünmektir. Ürettiğimiz ve kullandığımız teknoloji ne olursa olsun, minimum zarara neden olması ve büyük yararı olması gerektiği anlamına geliyor. Ancak, bu nasıl işe yarar?

AI’daki Önyargılar

Yapay Zekanın en güçlü yönlerinden biri Makine Öğrenimi’nden (ML) geliyor. Bu, dijital bir sistemin, programcıların kendilerinin sahip olmadığı çözümlerle gelmesini sağlayan yöntemlerin gövdesini tanımlar.

Kısacası, yazılım karmaşık sorunları hızla çözmek için kullanılabilecek algoritmalar oluşturmak için kullandığı bilgilerle beslenir. Bu tür sorunların örnekleri arasında bir yüzün nasıl tanınacağı veya cezai davranışların öngörülmesi yer almaktadır.

AI’nın bilgi işlem için güçlü ve sofistike bir yaklaşım olmasına rağmen, “çöp atma, çöp atma” temel prensibi hala geçerlidir. Başka bir deyişle, ML teknikleriyle üretilen algoritmalar sadece öğrendikleri veriler kadar iyidir. Önyargılı verileri beslerseniz önyargılı çözümler geliştirir.

Bunu bir dakikalığına düşünürseniz, bunun büyük bir sorun olduğu açıkça görülmelidir. Koyu tenli insanların yüz tanıma söz konusu olduğunda zaten önyargı görüyoruz. Peki ya azınlık topluluklarından kadınları veya insanları gözardı eden tıbbi algoritmalar? Bu bizim gibi önemli bir sorundur. Algoritmik Adalet Birliği AI önyargısı konusundaki farkındalığı artırmak için aktif olarak çalışanlar.

AI’nın Etik Kararları

AI’yı etik bir şekilde kullanmak istiyorsanız, AI’nın kendisinin etik bir şekilde davranması gerekir. Bu mantıklı değil mi? Söylemesi yeterince kolay, ama aslında onu uygulamak tamamen farklı bir sorundur.

Bir arabanın kaçınılmaz bir kaza geçireceği bir durum düşünün. Ne olursa olsun, biri ölecek veya korkunç şekilde yaralanın. Farklı insan sürücüler muhtemelen bu durumda farklı kararlar vereceklerdir. Çoğu insan muhtemelen çoğu zaman kendi hayatlarını ve yolcularının hayatını korumaya çalışır. Birisi bir köpeği, bir çocuğu ya da başka bir korunmasız kurbanı ezmek üzereyse, dönüp kaza yapmayı seçebilirler. Bunun yerine kendilerini incitmek. İnsanlar bu durumlarda fazla düşünmeden tepki vermek zorunda kalırlar. Felsefi olarak düşünecek zamanları yoktur ve ahlaki açıdan kabul edilebilir bir çözüme ulaşırlar.

Aynı arabayı kullanan bir AI için dünyada her zaman var. Dolayısıyla asıl soru, yaratıcılarının içinde ne tür bir etik kurallar oluşturması gerektiğidir. Sorun, neyin etik olup olmadığı konusundaki görüşün pek evrensel olmamasıdır. Bazı insanlar en fazla sayıda hayat kurtarmaya çalışmanız gerektiğini söyler. Diğerleri, AI’nın kendi yolcularına öncelik vermesi gerektiğini söylüyor. Başka bir açı daha var. Seni daha büyük bir iyilik için feda etmeyi seçebilecek AI kontrollü arabalara binmek ister misin?

Rasyonel olmayabilir, ancak insanlar kontrol yanılsamasını tercih ederler. İnsanlar bir aracı kontrol ederken kendilerini güvende hissederler, gerçekte bir makine sürüşünden daha az güvenlidirler. Bu yüzden çarpışmadan kaçınma sistemleri gibi teknolojilerle gizli sürüşü otomatikleştirmek daha iyi olmuştur. Sürücü, işler armut şeklini alana kadar kontrol altında olduklarını düşünüyor. Ardından otomatik sistemler devreye giriyor. Özellikle yaşam ve ölüm kararlarının alınması gereken tam otomasyon hem zorlu bir satış hem de çözülmesi zor bir teknik problem olacak.

AI Bizi Özgür mü Yapar mı yoksa Eski Mi Kullanır?

Bu en yaygın sorulardan biridir ve kısa cevap, hiç kimsenin AI’nın toplum üzerinde nasıl bir etkisi olacağını gerçekten bilmemesidir. Teknolojik gelişme bizi dönüştürüyor. Bu değişimin olumlu ya da olumsuz olması perspektif ve bağlam meselesidir.

Neredeyse kesin olan bir şey, AI çözümlerinin şu anda insanlar tarafından yapılan birçok işi devralacak olmasıdır. İş ne kadar basitse, bir makinenin yapması o kadar olasıdır. Bu hiç de yeni bir trend değil. İşgücünü bir yöne ya da başka bir yöne kaydırmış olan endüstriyel devrimlerden geçtik.

Bu günlerde, örneğin, insanların küçük bir kısmı tarımda çalışıyor. Traktörler, biçerdöverler ve diğer mekanize edilmiş teknolojiler, büyük insan işgücü ihtiyacını ortadan kaldırmıştır. Şimdi AI, bu cihazları çalıştırmak için gereken az sayıdaki insanı ortadan kaldırmak üzere ayarlandı. Kendi kendine sürüş traktörleri zaten tarlalarda çalışıyor. Drone yapımcısı DJI satıyor Agras otomatik olarak pestisiti saatte on dönüm üzerine püskürtebilen drone.

Karmaşık, yaratıcı işlerde (örneğin yazarlar!) İnsanlar da çok rahat edemezler. İnsan tarafından yazıldığı gibi geçecek içerik üreten birçok AI uygulaması örneği vardır. Özellikle finansal piyasa raporlaması veya spor gibi yüksek yapılandırılmış alanlarda.

Uzun vadede, bu yüzyılın sonuna doğru, makinelerin yapamayacağı herhangi bir genel bilgi ya da fiziksel görevi hayal etmek zor. Kimse gelecekle ilgili mükemmel cevaplara sahip olmasa da, her şeyi yeniden düşünmek zorunda kalacağız. Ekonominin temel kıtlığı ilkesinden, insanların dünyadaki zamanlarıyla ne yapmaları gerektiği konusuna. Ne de olsa, yaşamak için çalışması gereken fikir objektif bir gerçek değil. Kıt kaynakların bir yan etkisi. Savunucuları kıtlık sonrası ekonomi Genel olarak AI’nın hepsini çalıştıracak önemli bir teknoloji olduğunu düşünüyorum.

AI Çağında Gizlilik

Buluştukları kişilerin özel yaşamları hakkında etkileyici bir kavrayış kazandırabilen hiper yetkin karakterlerin kurgusal hikayeleri vardır. Sör Arthur Conan Doyle’un hikayelerinden Sherlock Holmes muhtemelen en iyi bilinen örnektir. Holmes, biriyle ilgili küçük bir ayrıntı farkedecek ve daha sonra bu geniş kapsamlı bilgisini bu ayrıntıların ne anlama geldiği hakkında teoriler oluşturmak için kullanacaktır. Kitaplarında etkileyici bir anlayışla ortaya çıktı, aksi takdirde suçlarından kurtulacak olan kötü niyetli kişilerin mahkumiyetine yol açtı.

Ama ya kötü biri değilsen. Ya sadece hayatınızı barış içinde yaşamaya çalışan biriyseniz. Yaşamınızla ilgili özel gerçekleri doğru bir şekilde çıkaran Sherlock Holmes, herkese açıktır mı?

Bu, Büyük Veri’nin gücünü ve bu verilerden içgörü kazandırabilecek öğrenme teknolojilerini göz önüne aldığımızda etik sorunlardan biridir. Kendinizle ilgili gerçekleri ifşa etmeseniz bile, AI noktalara katılabilir.

En kötüsü, gelecekteki AI’nın geçmişte toplanan verilere uygulanabilmesidir. Bu yüzden sizin hakkınızda şu anda isimsiz olan bilgiler bir gün isimsiz hale getirilebilir. Geçiş saatli bir bomba gibi.

Diğer büyük AI gizlilik sorunu, akıcı ses tanıma gibi mevcut AI teknolojilerinin, insan aracıları veya geleneksel yazılım kullanarak asla mümkün olmayacak olan toplu gözetimi mümkün kılmasıdır.

Sonunda, AI gizlilik ihlallerini azaltabilecek tek şey düzenleme ve mevzuattır. Telefona dokunarak ve diğer güncel müdahale tekniklerini düşünün. Hükümet isterse, telefonunuza dokunabilir. İsteyerek yapmasını engelleyen yasal sistem. AI’yı geçmiş verilerde veya toplu gözetimde kullanmaya karşı aynı tür yasal korumaya ihtiyacımız var.

AI’nın Etik Davranışı

AI’nın şu an için tamamen akademik olan ilginç bir sorusu var. Bu soru AI’ların kendilerinin etik muamelesi ile ilgilidir. Başka bir deyişle, AI’nın haklarına hangi noktada dikkat etmeliyiz? Başka bir yerde söylediğim gibi, insanlar henüz var olmadıkları gibi aynı duyarlılıkta bilardo alanına düşen “Güçlü” AI türü. İnsanların bilinçli ve öz-bilinçli zekanın nasıl yaratılacağını çözüp çözmeyeceğini bilemeyiz.

Günümüzün en karmaşık AI uygulamaları bile, böcekler gibi “basit” hayvanların mimari karmaşıklığına sahip değildir. Ayrıca, AI varlıklarının kötü muamelesinin hangi noktada etik bir sorun olacağı da belli değildir. Bir istihbaratın öznel acı çekmeyi deneyimleme kapasitesine sahip olup olmadığını nasıl belirlersiniz?

Duygusal AI, öngörülebilir bir AI geliştirme yol haritasında bulunmadığından. Bu akademik bir soru gibi görünebilir. Fakat aslında bugün zaten önemli, çünkü bir toplum olarak doğal zekâlara etik olarak nasıl davrandığımızın etiğini bile çözemedik. Yunuslar ve şempanzeler gibi hayvanlar var, bize bazılarının verilmesi gerektiğini düşündüğü kadar yakınlar. insan benzeri kişilik.

Sonra tekrar, domuzlar inanılmaz derecede zekidir, ancak onları milyonlarca yiyecek için keser ve keseriz. Acımasızlık ve duyarlılığın sınırlarının nerede olduğunu düşünerek çok daha fazla şey yapmamız gerekecek. Sorun, burada nesnel bir doğru ve yanlış cevap olmamasıdır. Ahlak ve etik her zaman bir dereceye kadar gri alana sahiptir. AI, zulüm hakkında endişelenmemiz gereken noktaya ulaştığında acı çekmek muhtemelen onların yararına ve karlılığına karşı geliyor. Gelecekteki AI geliştiricilerinin bu konuyla nasıl başa çıkmaları ilginç olacak, ancak bugün hayatta kalan hiç kimsenin sonucu görmemesi muhtemel.

Askeri AI Uygulamaları

robot android kadınlar

Bizi “haydut AI” hakkında uyaran filmler neredeyse her zaman robotik ölüm makinelerine odaklanmıştır. Bu, kabus Skynet senaryosudur, nükleer silahları fırlatabilen ve avcı katilleri gönderebilen makinelerin hepimizin peşinden geldiği senaryo.

İyi haber şu ki, bu öngörülebilir gelecek için bilim kurgu dünyasıyla sınırlı. Süper akıllı güçlü AI mevcut değil. Onları nasıl yaratacağımızı bilmiyoruz ve kendiliğinden bir tane yaratmamız pek mümkün değil.

AI ölüm makineleri hakkındaki etik kaygılardan kurtulmak için hiçbir şey yapmıyor. Büyük dünya askeri güçleri, Predator uçağı veya gibi otomatik silah platformlarını kullanıyor. MAARS robotları on yıllardır.

Şimdiye kadar, yaşam almaya karar verildiğinde her zaman bir insan karar vericisi olmuştur. Ancak, bu değişiyor. Özerk sistemlerin bir insana ilk sormadan düşman hedeflerini seçip onlara saldırmasına izin veren güçlü bir uluslararası güç var. Bu tür bir gecikme eklemek, silahın etkinliğini zayıflattığından mantıklı, ancak etik meseleler sayısız. Zaten “katil robotları” yasaklamamızı isteyen büyük bir karşı hareket var. Silahlı kuvvetlerde hiç hizmete girmeden önce. Sonra tekrar, belki de gelecekteki savaşlar her iki taraftaki makinelerden başka hiçbir şeyle savaşılmayacak. Bu daha iyi mi? Belki.

İnsanları Döngüden Çıkarma

AI teknolojisinin tüm potansiyeline ulaşmasına izin vermek ve bu süreçte insanın hesap verebilirliğini korumak arasında büyük bir gerilim var. Birçok AI sistemi, özellikle askeri sistemler, onları yavaşlatan hiçbir insan yoksa, en iyi şekilde çalışacaktır. Bir insandan her önemli kararı gözden geçirmesini istemek zorunda kalırsanız, o zaman sadece insan karar verme hızında işlem yapabilirsiniz. Bu biraz karşı üretken görünüyor. Ancak, AI kararları üzerinde bir nevi insan gözetim sistemi yoksa, AI’nın çıkarları doğrultusunda olmayan kararlar alma riskiyle karşı karşıya kalırız.

Bu soruna gerçek bir çözüm öneremem. Sonunda, AI teknolojimiz söz konusu olduğunda doğru bir güven duygusu geliştirmeliyiz. Aynı şekilde, bugün hangi kararlarla insanların güveneceğini ölçüyoruz. Zamanlar değişiyor ve insanlar bugün makine ya da istihbaratın ölüm ya da ölüm kararları aldığını hayal edemese de, teknolojinin gelecekteki bir tekrarlaması herkesi rahatlatabilir. Her iki durumda da, biri insanı döngüden çıkarmak istediğinde, ciddi bir yansıma gereklidir.

Kötü Amaçlı Yazılım Geliştirme

Virüs

Çoğu insan AI teknolojimizin “hileli” olacağından ve bizi açacağından endişe ediyor gibi görünüyor. Açıkçası, bu bugün işler için geçerli olan bir hayal. İstenmeyen düşünce, kasıtlı olarak AI teknolojisini hasar vermek için kullanan bir insan-AI yaratıcısıdır.

Buna yaklaşmanın farklı yolları var, ama AI hiç şüphesiz doğrudan silahlanabilir.

İlk olarak, bağımsız bilgisayar korsanları olarak çalışan AI sistemlerini düşünün. Güvenlik sistemlerinde zayıf yanları bulmak için ağı dolaşıyorlar. Bir tane bulduklarında görev yerine getirilir. Her neyse olabilir. Sizce bu fikir çok etkilendi mi? Ardından, bir hipotezle karşılaşabilen, deneysel bir test tasarlayan, uygulayan ve bir sonuç çıkartan AI yazılımının zaten yazılmış olduğunu düşünün. Bu 2009 yılında geri döndü!

Bu, bilgisayar korsanlarının kullandığı temel yaklaşımdan uzak değildir. Gözlemler, potansiyel saldırıları formüle eder ve sonra test ederler.

Tabii ki, biz zaten zaten vahşi bir sürü akıllı malware var. Ancak, bu geleneksel kötü amaçlı yazılım yeni davranışlar öğrenmez ve öngörülemeyen şekillerde değişiklik yapmaz. En azından tasarım yüzünden değil. Gelişmiş AI kötü amaçlı yazılımları yalnızca diğer AI’ların işleyebileceği bir bela olabilir.

AI Tehlikelerini Azaltma

Peki, AI teknolojisinin yarattığı potansiyel tehditler üzerinde bir miktar kontrol kontrolü almak için ne yapabiliriz? Bunun cevabı büyük ölçüde AI’nın nerede uygulanacağına bağlıdır. Sonuçta, zarar potansiyeli müdahalenizin önceliğine bağlıdır.

En önemli hafifletme, bir tür sağlam ve güvenli kapatma özelliği olduğundan emin olmak olacaktır. Bir insan eli hala fişi çekebildiği sürece. O zaman, iyi bir güvenlik ölçüsüne ve AI kullanımı için son etik hakem olarak hareket etmenin bir yoluna sahibiz.

Belki de en ilginç azaltma, esas olarak hırsızı yakalamak için bir hırsız belirlemek olabilir. Başka bir deyişle, diğer AI sistemlerinin ne yaptığını bağımsız olarak izlemek için AI araçlarını kullanmak iyi bir fikir olabilir. Böyle uzak bir fikir. Bunu düşünürseniz, kendi vücudunuz yarı bağımsız bileşenlerden oluşur. Hepsi birbirleriyle konuşuyorlar, ancak her organ kendi özel işini yapıyor. Kendi kendini düzenleyen AI sistemlerinin kullanılması, öngörülemeyen sonuçları önlemenin bir yolu olabilir.

Bir Tür Olarak Büyüyor

Herhangi bir şey açıksa, AI teknolojisini tekrar kutuya sokmanın bir yolu yoktur. Bugün bile, Derin Öğrenme gibi teknikler büyük zaman harcamaktadır. En zorlu sorunlarımızdan bazılarını çözmek için AI’ya ihtiyacımız var. Çevresel modellemeden otomatik robot işçiliğine, AI olmadan bunların hiçbiri mümkün değildir. Bugün tıpta, fosil yakıtta ve günlük yaşamı mümkün kılan diğer teknolojik harikalarda olduğu gibi gelecekte de AI’ya bağımlı olacağımızı umuyorum. Bununla birlikte, AI’nın etik kullanımı söz konusu olduğunda, türlerimizin hala büyümesi gereken bazı şeyleri vardır.

AI’nın etiğine ilişkin fikriniz nedir? Endişeli? Heyecanlı? Aşağıdaki yorumlarda bize bildirin. Son olarak, sizden bu makaleyi çevrimiçi paylaşmanızı rica ediyoruz. TechNadu’yu takip edebileceğinizi de unutmayın Facebook ve Twitter. Teşekkürler!