YAPAY ZEKA ETİĞİ NEDEN ÖNEMLİDİR? - HAVİN JİYAN FİDAN

YAPAY ZEKA ETİĞİ NEDEN ÖNEMLİDİR? - HAVİN JİYAN FİDAN

 


YAPAY ZEKA ETİĞİ NEDEN ÖNEMLİDİR?

   Yapay zeka (AI) kavramı ilk olarak Alan Turing tarafından “Makineler düşünebilir mi?” sorusuyla ortaya atılmıştır. Ortaya çıkışı 2. Dünya Savaşı sırasındaki analiz ve ölçüm gereksinimlerine yöneliktir. “Yapay zeka” terimi ilk kez 1956 yılında, New Hampshire’daki Dartmouth Üniversitesi’nde yapılan bir konferans sırasında John McCarty tarafından kullanılmıştır. Bu nedenle 1956 yılının yapay zeka kavramının doğum yılı olduğu söylenebilir. Sonraki yıllarda, Perceptron adlı yapay sinir ağının keşfi, yapay zekanın artık uygulanabileceğini kanıtladı. Ünlü satranç ustası Garry Kasparov'un 1997 yılında IBM (International Business Machines) tarafından geliştirilen Deep Blue adlı yapay zekaya yenilmesi, yapay zekanın hayata fiilen girişi olarak kabul ediliyor.

   Şu anda yapay zekanın insanlığımız ve toplumumuz üzerinde önemli bir etkisi var. Güvenlik ve savunma sanayi, sesli asistanlar, dil çevirileri, öneri sistemleri, navigasyon, sosyal güvenlik, sağlık hizmeti, e-ticaret, yardımcı robot uygulamaları vb. alanlarda kullanılmaktadır. Yapay zekanın hayatımızda hızla yer edinmesinin bir sonucu olarak bu kavramın insan psikolojisine ve toplumsal hayata olan etkilerinin araştırılması ihtiyacı doğmuştur. Bunun üzerine araştırmacılar, yapay zekanın doğru ve sorumlu bir şekilde kullanılması, toplum üzerindeki olumsuz etkilerinin en aza indirilmesi ve etkinliğinin artırılması için yapay zeka etiğini tartışmaya başladılar. Yapay zeka, ürün ve hizmetlerin ayrılmaz bir parçası haline geldiğinden, kuruluşlar yapay zeka etik kuralları geliştirmeye başlıyor. Bu yazıda, AI etiğinin ne olduğunu, neden önemli olduğunu ve hala tartışmalı olan birkaç yönü inceleyeceğiz.

Etik Nedir?

   Tarihsel süreç içerisinde etik kavramının birçok tanımı yapılmıştır. Oxford sözlüğünde, bir kişinin davranışını veya bir faaliyetin yürütülmesini yöneten ahlaki ilkeler olarak tanımlanır. Başka bir deyişle, etik, neyin iyi veya doğru olduğunu belirlemeye yardımcı olan bir ilkeler, kurallar veya yönergeler sistemidir. Genel olarak, etik, doğruya karşı yanlışı ve varlıkların ahlaki yükümlülüklerini ve görevlerini ele alan disiplin olarak tanımlanabilir.

   Etik, birçok araştırmacının ve filozofun üzerinde çalıştığı bir konudur. Etik, bireylere yaşamları boyunca ahlaki bir rehber görevi gördüğü için erdem etiği kavramı, aileleri, öğretmenleri ve çevresindeki diğer yetişkinler tarafından insanlara çok küçük yaşlardan itibaren aşılanır. Erdem etiği, ahlaki olarak neyin iyi neyin kötü olduğunu ve bir eylemi neyin doğru neyin yanlış yaptığını inceleyen normatif etiğin bir parçasıdır. Aristoteles'e göre erdem olmadan mutluluk mümkün değildir. İnsanların diğer canlılar ve makinelerle artan etkileşimi, araştırmacıları etik teorilerini hayvan etiği, iş etiği ve askeri etik gibi farklı alanlara ayırmaya yöneltmiştir. Bu konunun uzun bir tarihsel gelişimi vardır ve etiğe ilişkin birçok farklı ve ortak yaklaşım mevcuttur.

 “Ahlaki Yapay Zeka” ve “Yapay Zeka Etiği” Nedir ve Neden Önemlidir?

   Yapay zeka etiği, teknoloji etiğinin yapay zeka sistemlerine özgü dalıdır. Yapay zeka etiği, yapay zeka teknolojisinin geliştirilmesini ve sorumlu kullanımını bilgilendirmeyi amaçlayan bir ahlaki ilkeler ve teknikler bütünüdür. Yapay zekanın “ahlaki yapay zeka  ve yapay zeka etiği” olmak üzere iki boyutu vardır ve ahlaki yapay zeka; bu iki boyutun yapay zeka, insan ve toplum ile nasıl etkileşime girdiğine odaklanır. Normatif etik çalışmalarında temel soru “Ahlaki olarak iyi ve kötü, doğru veya yanlış nedir?” sorusudur. Ahlaki yapay zekada üç soru vardır: "Yapay zeka diğer yapay zekalarla  etik olarak nasıl etkileşime girmeli?", "Yapay zeka insanlarla etik olarak nasıl etkileşime girmeli?", "Yapay zeka toplumda etik olarak nasıl çalışmalı?". Bu sorulara ek olarak, ahlaki yapay zeka, insanların yapay zeka teknolojisini etik olarak nasıl iyileştirmesi ve kullanması gerektiğini de dikkate alır.

   Şimdiye kadar yapay zeka etiği konusunda en çok bilinen ve en tartışmalı önerilerden biri Amerikalı bilimkurgu yazarı Isaac Asimov tarafından 1942 yılında "Three Laws of Robotics" ile yapılmıştır. İlk yasa, bir robotun bir insana zarar vermeyeceğidir veya eylemsizlik yoluyla bir insanın zarar görmesine izin verir. İkinci yasa, bir robotun kendisine bir insan tarafından verilen herhangi bir talimata uymasıdır. Üçüncü yasa ise robotun kendisine zarar vermesine neden olabilecek eylem veya durumlardan kaçınması gerektiğidir Pek çok bilgisayar mühendisi, programlama hakkında nasıl düşüneceklerine karar vermek için bu üç yasayı bir araç olarak kullanır. Ancak az önce de belirtildiği gibi bu üç kanun oldukça tartışmalıdır. Çin'deki Wuhan Üniversitesi'nden filozof Chris Stokes, bu yasaların mantıksal hatasını şöyle açıklıyor: "Birinci Yasa, dildeki belirsizlik ve basit bir evet veya hayır yanıtı veremeyecek kadar komplike olan karmaşık etik sorunlar nedeniyle başarısız oluyor. İkinci Yasa, canlı varlıkların köle olarak kalmasını gerektiren bir yasaya sahip olmanın etik olmayan doğası nedeniyle başarısız olur. Üçüncü Yasa, bu yasalar sistemine yerleşik muazzam miktarda potansiyel sömürü ile kalıcı bir sosyal tabakalaşmaya neden olduğu için başarısız olur."

   Şu anda, farklı kuruluşlar, şirketlerin güven oluşturmasına ve yapay zekayı güvenle ölçeklendirmesine olanak sağlamak için yapay zeka etik kuralları geliştiriyor (ör. IBM, Microsoft). Birçok araştırmacı yapay zekanın potansiyel risklerini ve etik ikilemlerini inceliyor. Ama neden bu kadar önemli?

   İnsanlarda “ahlaki pusula” denen bir şey var. Bir kişinin beynine oturan ve temelde doğruyu yanlışı söyleyen bir ajandır. Bir adaletsizlik gördüğünüzde, beyniniz size bir şeylerin doğru olmadığını söyler. Ondan gelen eylemler size kalmış, ancak doğruyu yanlışı ayırt edebilirsiniz. Ahlaki pusulanızın standartları, büyük ölçüde yetiştirilme tarzınıza ve çevrenize bağlıdır, ancak çoğu insan bu pusulalardan birine sahiptir. Aynı zamanda şirketlerin etik ve uyumlarını neyin üzerine inşa ettikleri, neyin doğru neyin yanlış olduğu ve buna dayalı olarak kuralları nasıl belirlediğimizdir. Yapay Zeka böyle bir pusuladan yoksundur. Aslına bakarsanız, herhangi bir pusuladan yoksundur. Yapay Zeka, yalnızca “doğru” etiketine ve “yanlış” etiketine sahip verilere dayanarak doğruyu yanlıştan ayırabilir. Yapay zekanın kendi farkındalığı yoktur ve etiğin temeli olan “empati” denen şeye de sahip değildir. Yapay zeka hakkında konuşurken var olan tek ahlaki pusula, neyin doğru neyin yanlış olduğu konusunda çıtayı belirleyen geliştiricisinin pusulasıdır. Geliştiricinin ahlaki pusulası düşükse, kötü niyetlerle yapay zeka geliştirebilir. Etik yapay zekanın önemi burada ortaya çıkıyor. Yapay zekanın potansiyel risklerini azaltmak ve yapay zekayı insanlık için daha verimli hale getirmek için teknoloji sektörünün yapay zeka etiğine ihtiyacı var.

   Bu yazının kalanında yapay zeka ile ilgili üç etik konuyu açıklayıp tartışacağız.

 

1.Cinsiyet/ Irk Eşitliği

   Cinsiyet ve ırk eşitsizliği, maalesef  tarih boyunca toplumların kültürlerinde ve günlük yaşamlarında yerleşik hale gelmiş bir olgudur. Feminist ve anti-faşist mücadelelerle geçen yıllar boyunca cinsiyet ve ırk eşitsizliğine maruz kalan bireyler ve topluluklar dünyanın belirli bölgelerinde eşit haklar elde etmeyi başardılar. Bununla birlikte, cinsiyet ve ırk eşitliği dünyanın birçok yerinde hala tam olarak anlaşılmamış veya uygulanmamıştır. Toplumların ve bireylerin hayatlarının bir parçası olan ve mücadele edilen bu eşitsizlikler yapay zeka sektöründe de kendini gösterebilmektedir. Yapay zeka da kendi yargıları ve fikirleri olan kişiler tarafından oluşturulduğundan ve yukarıda da belirtildiği gibi yapay zekanın ahlaki pusula ve empatiden yoksun olması ve karar verme sürecinde insanlardan toplanan verileri kullanması nedeniyle bazı sorunlar ortaya çıkabilmektedir.

  Yapay zeka sektöründe cinsiyet ve ırk ayrımcılığının en çok görüldüğü noktalardan biri de yüz tanıma teknolojisidir. Genç bir Afrikalı-Amerikalı bilgisayar bilimcisi olan Bayan Buolamwini, yüz tanımanın önyargısını ilk elden deneyimledi. Georgia Teknoloji Enstitüsü'nde lisans öğrencisiyken, programların beyaz arkadaşları üzerinde iyi sonuç vereceğini, ancak yüzünü hiç tanımadığını söyledi. Çok geçmeden kesinlikle düzeltilecek bir kusur olduğunu düşündü. Ama birkaç yıl sonra, M.I.T.'ye katıldıktan sonra Media Lab, yine kayıp yüz problemiyle karşılaştı. Yazılım ancak beyaz bir maske taktığında onun yüzünün yüzünü tanıdı. Ticari sistemleri test etmek için, Bayan Buolamwini, ofisteki kadın oranının yüksek olduğu ülkelerdeki milletvekillerinin yüzlerini kullanarak 1.270 yüze sahip bir veri seti oluşturdu. Kaynaklar, ağırlıklı olarak koyu tenli nüfusa sahip üç Afrika ülkesini ve çoğunlukla açık tenli sakinleri olan üç İskandinav ülkesini içeriyordu.

   Afrikalı ve Kuzeyli yüzler, dermatologlar tarafından cilt tiplerini sınıflandırmak için kullanılan altı noktalı bir etiketleme sistemine göre puanlandı. Tıbbi sınıflandırmaların ırktan daha objektif ve kesin olduğu belirlendi. Ardından, her şirketin yazılımı, cinsiyet dengesi ve çeşitli cilt tonları için hazırlanmış küratörlü veriler üzerinde test edildi. Sonuçlar biraz değişti. Microsoft'un koyu tenli kadınlarda hata oranı yüzde 21 iken IBM'in, Amazon'un ve Megvii'nin hata oranının yüzde 35'e yakın olduğu ortaya çıktı. Halbukiçık tenli erkekler için hepsinde yüzde 1'in altında hata oranları vardı. Beyaz bir adamsanız yüz tanıma doğrudur. New York Times, Bayan Buolamniwi araştırmasını halkla paylaştığında ve teknolojiye yönelik şikayetlerini dile getirdiğinde Microsoft, bu konu üzerinde çalıştıklarını ve ön yargıyı anlamaya ve ortadan kaldırmaya çalıştıklarını belirtirken, Amazon bu iddiaları ısrarla yalanladı ve Megvii eleştiriler karşısında sessiz kaldı.

   Firmaların bu sorunu çözmeye yönelik sessiz ve etik olmayan tutumları, toplumsal hayatta ciddi eşitsizliklere neden olabilmektedir. Örneğin, yüz tanıma şu anda Detroit gibi şehirlerde kolluk kuvvetleri tarafından kullanılıyor ve bu yazılıma eklenen ırksal önyargı zarar veriyor. Bazı sanıklar etnik kökenleri nedeniyle yanlışlıkla yüksek riskli olarak etiketleniyor. Toplu konutlardan ceza adalet sistemine kadar her şeyde mevcut ırksal profilleme ve ayrımcılığı şiddetlendiriyor. Algoritmik önyargı ve veri madenciliği üzerine çalışan bir bilgisayar bilimcisi olan Timnit Gebru, yüz tanımanın şu anda kolluk kuvvetleri ve güvenlik amaçları için kullanılamayacak kadar tehlikeli olduğuna inandığını ifade etti.

   Yapay zekanın neden olabileceği ayrımcılık ırk ve cinsiyet ile sınırlı değildir. Dünyanın farklı yerlerinde ayrımcılığa uğrayan her birey ve grup bu tehlikeyle karşı karşıyadır. Yapay zeka tarafından toplanan verilerin içeriği ayrımcılığa uygun olduğunda veya matematiksel azınlıkta olan gruplar olduğunda algoritmik yanlılık kavramı ortaya çıkmakta ve bu kavram yapay zekanın yaratıcısına veya veri tabanına bağlı olarak ayrımcılığa ne kadar açık olduğunu ortaya koymaktadır. Algoritmik önyargıyı daha iyi açıklamak için bir örnek verilebilir. Birkaç yıl önce, Amazon bir özgeçmiş tarama aracı oluşturmak için yapay zekayı kullanmaya çalıştığında Reuters'e göre şirket, teknolojinin iş başvurularını sıralama sürecini daha verimli hale getirmesini umuyordu. Şirketin on yıldır topladığı özgeçmişleri kullanarak bir tarama algoritması oluşturdu, ancak bu özgeçmişler çoğunlukla erkeklerden gelme eğilimindeydi. Bu, sistemin sonunda kadınlara karşı ayrımcılık yapmayı öğrendiği anlamına geliyordu. Ayrıca, başvuranın bir kadın kolejine gidip gitmediği gibi, cinsiyet için vekilleri kriterlere ayırdı. Yani yapay zeka, herhangi bir insanın müdahalesi olmadan kendi başına, verilere dayanarak ayrımcılık yapmayı öğrendi.

2. Yapay Zekanın Kötüye Kullanımı

   Yapay zeka, insanlara günlük yaşamlarında birçok alanda fayda sağlıyor. Bu nedenle insanların hayatlarının ayrılmaz bir parçası haline gelmiştir. Getirdiği yeniliklerle birçok yönden insanların hayatını kolaylaştırmış olsa da yapay zeka suistimale karşı oldukça hassastır. Yazının önceki bölümlerinde yapay zekanın ahlaki pusuladan yoksun, iyiyi kötüyü ayırt edemeyecek durumda olduğundan ve bunu ancak insanlardan topladığı verileri analiz ederek ya da yaratıcısının programlaması doğrultusunda yapabileceğinden bahsetmiştik. Yapay zekanın yaratıcısı bunu kötüye kullanırsa, hayatımızdaki önemli yeri düşünüldüğünde bunun birçok yönden yıkıcı sonuçları olabilir.

   Yapay zekanın en popüler suistimallerinden biri, gerçek görünmeleri için sesli ve görsel içeriği oluşturmak veya değiştirmek için yapay zeka tekniklerinin kullanılmasını içeren deepfake’lerdir. Teknolojik çözümlerin kullanımıyla bile, meşru içerikten hemen ayırt etmek zordur. Bu nedenle toplumu yanıltmak için kullanılmaya son derece uygundur. İnternet ve sosyal medyanın yaygınlaşması nedeniyle dünyanın farklı yerlerinde milyonlarca birey hayal gücünün ötesinde hızlarda deepfake’lere ulaşabilmektedir. Deepfake’ler, birçok kişi için korkunç amaçlarla gerçekliği yok etme potansiyeline sahiptir. Buna bir örnek, Malezyalı bir siyasi yardımcının bir kabine bakanıyla cinsel ilişkiye girdiğini gösteren, sahte olduğu iddia edilen bir videodur. 2019'da yayınlanan video, kabine bakanının yolsuzluk iddiasıyla soruşturulmasını da gerektiriyor. Özellikle, bu videonun yayınlanmasının bir sonucu olarak, koalisyon hükümetinin istikrarı bozuldu, bu da derin sahtekarlıkların olası siyasi sonuçlarını kanıtladı. Bu arada başka bir örnek de şunu içerir: Suçlular, bir CEO'nun sesini taklit etmek için yapay zeka tabanlı ses teknolojisini kullandı ve 243.000 dolarlık hileli bir transfer talep etti.  Bu münferit bir olay değildir. PINDROP, 2013 ve 2017 yılları arasında ses dolandırıcılığında %350'lik bir artış bildirdi.

   Yapay zekanın kötüye kullanılmasının bir başka popüler örneği de yapay zeka destekli parola tahminidir. Siber suçlular, kullanıcıların şifrelerini tahmin etmeye yönelik algoritmaları geliştirmek için makine öğrenimi kullanıyor. HashCat ve John the Ripper gibi daha geleneksel yaklaşımlar zaten mevcuttur ve karmaya karşılık gelen parolayı başarılı bir şekilde belirlemek için parola karmasının farklı varyasyonlarını karşılaştırır. Bununla birlikte, sinir ağlarının ve Üretken Düşman Ağların kullanılmasıyla siber suçlular, geniş parola veri kümelerini analiz edebilecek ve istatistiksel dağılıma uyan parola varyasyonları oluşturabilecektir. Gelecekte bu, daha doğru ve hedefli parola tahminlerine ve daha yüksek kâr şansına yol açacaktır. Şubat 2020'deki bir yeraltı forum gönderisinde, 1,4 milyar kimlik bilgilerini ayrıştırma ve parola varyasyon kuralları oluşturma özelliğine sahip bir parola analiz aracı içeren bir GitHub deposu bulundu.

Yapay zekanın yanlış kullanımı, yukarıda verilen örnekler gibi hayatın birçok alanında ortaya çıkabilir. Yapay zekanın hayatımızda önemli bir yer tutması ve topladığı veriler sayesinde hakkımızda çok fazla bilgiye sahip olması nedeniyle bu yanlış kullanım, sahtekarlık gibi suçların yanı sıra şeffaflık ve yapay zekaya karşı güvensizlik gibi sorunlar da yaratabilmektedir. Çoğu durumda yapay zekayı kötüye kullanan insanlar olsa da, bireylerde oluşabilecek güvensizlik hissi, yapay zeka kavramının bireyler tarafından yanlış anlaşılmasına neden olabilmektedir. Yukarıda yapay zekanın ırk ve cinsiyet eşitliği boyutuna değinilirken, yapay zekanın yaratıcısının kendi ön yargılarını yarattığı ürüne yansıtabileceği belirtildi. Yapay zekanın kötüye kullanımı sırasında toplumsal yaşamı derinden etkileyen ayrımcılık ve eşitlik gibi kavramların istismar edilmesi durumunda toplumların psikolojisi ve yaşamı ciddi şekilde etkilenebilir ve bu yönde işlenen nefret suçlarında artış gözlemlenebilir.

3. İşsizlik

   Yapay zeka, insan yaşamının birçok alanında yaygın olarak kullanılmaktadır. Teknolojideki son gelişmeler sayesinde yapay zeka, insanların yaptığı birçok şeyi yapabilir hale geldi. Üstelik yapay zeka dinlenme ya da sağlık sigortası gibi insani ihtiyaçlara gereksinim duymadığı için daha az maliyetli ve daha uzun saatler çalışabiliyor. Bu nedenlerle yapay zeka, işverenler için birçok yönden daha karlı hale geldi. Teknolojinin bu hızlı gelişimi ve işverene sağladığı avantajlar sonucunda yapay zeka robotlarının insanların işlerini elinden alması mümkün müdür?

   Bazı uzmanlar bu endişenin yersiz olduğunu, yapay zekanın insanların yerini almak için değil, insanlara yardım etmek için geliştirildiğini savunuyor. Bazı alanlarda yapay zeka insanlara tercih edilse de yapay zekanın gelişmesinin insanlara yeni alanlar açacağını ve yeni iş olanakları sunacağını düşünüyorlar. Ancak yapay zekanın insanların yapabileceği birçok şeyi yapabilir hale gelmesi ve birçok alanda yaygın olarak kullanılmasıyla birlikte uzman ve karşıt görüşlü kişilerin sayısı artıyor. Yapay zekanın insan işinin yerini aldığı bazı alanlar kuryeler, bilgi teknolojisi (BT) ve emlaktır. Kurye ve teslimatçıların yerini dronlar ve robotlar alıyor ve birkaç yıl içinde otomasyonun bu alana hakim olacağı öngörülüyor. Bu alanın 2024'te %5 büyümesi bekleniyor. BT'de, 2024'te otomasyonun %12 artması bekleniyor. Önceden herhangi bir yazılım kodunu test etmek için insanlara ihtiyaç vardı. Ancak artık otomatik testler yapıldığından herhangi bir insani test cihazına ihtiyaç yoktur. Böylece sektördeki BT uzmanlarına olan ihtiyacı azalıyor. Gayrimenkulde, acenteler ev alıp satmada önemli bir rol oynamaktadır. Ancak bu bilgi çağında her şey insanların parmaklarının ucunda. Sihirli tuğlalar ve 99 dönüm gibi çevrimiçi hizmetler, müşterilerin mülklerini aramasına yardımcı olur. Böylece teknoloji konusunda bilgili bir satıcı, herhangi bir temsilciye ihtiyaç duymadan müşterilere kolayca ulaşabilir.

   Yapay zeka hali hazırda bu alanlarda yaygın olarak kullanılırken diğer alanlarda da kullanımının artmasının temellerini atıyor. ​Yapay zeka iş, eğitim, piyasa ve devlet sektöründe de anlam kazanmıştır. Şu ana kadar ciddi iş kayıplarına yol açmasa da bu durum birçok insanı korkutuyor. Yukarıda da bahsedildiği gibi normalde bu gibi durumlarda insanları rahatlatan yegane düşüncelerden biri yapay zekanın teknoloji sektöründe yeni iş imkanları sunacağı ve yapay zekanın gelişimi doğrultusunda istihdamın artacağıdır. Ancak Mayıs 2017'de Google Brain'deki araştırmacılar, kendi yapay zekalarını oluşturabilen bir yapay zeka (AI) olan AutoML'nin oluşturulduğunu duyurdular. Yapay zekanın insana ihtiyaç duymadan kendini geliştirme olasılığı, yapay zekanın geliştirilmesi ihtiyacının bu sektörde istihdamı artıracağı veya teknoloji sektöründe yeni iş olanakları sunacağı düşüncesini ortadan kaldırmaktadır. 2030 yılına kadar 45 milyon Amerikalı, işgücünün yaklaşık dörtte birini temsil eden yapay zeka otomasyonu nedeniyle işlerini kaybedebilir. Dünya çapında, yapay zeka nedeniyle önümüzdeki on yıl içinde bir milyar insan işini kaybedebilir ve 375 milyon iş, yapay zeka otomasyonundan dolayı eskime riskiyle karşı karşıyadır. Elon Musk, "bilgisayarlar, akıllı makineler ve robotlar geleceğin iş gücü gibi görünüyor ve giderek daha fazla işin yerini teknoloji aldıkça insanların yapacak daha az işi olacak ve nihayetinde, hükümet."

 

Çözümler

   Yapay zeka, son yıllarda insan yaşamının ayrılmaz bir parçası haline geldi. Sağladığı faydalar sayesinde insanlar hayatlarını daha rahat yaşayabilir hale gelmiştir. Sağlık hizmetleri, güvenlik ve navigasyon gibi birçok alanda getirdiği yenilikler, toplumların yaşam kalitesini birçok açıdan artırmıştır. Ancak yapay zeka ahlaki değerler açısından hala tartışmalı bir kavram ve bazı durumlarda insanlık için tehlike arz ediyor. Uzmanlar, yapay zekanın işleyişini ve toplum ve bireyle olan etkileşimini etik açıdan inceliyorlar. Birçok şirket ve kuruluşun bu alanla ilgilenen birimleri vardır. Yukarıda yapay zeka ile ilgili üç etik konuya değinilmişti. Bu tür sorunları ve ahlaki ikilemleri çözmek için sektörde çözüm üretmeye çalışan kişi ve kuruluşlar olduğu gibi bunu arka planda tutan ve gerektiği kadar umursamayan kişi ve kuruluşlar da bulunmaktadır. Ancak bu sorunların etkilerini ve tehlikeli sonuçlarını en aza indirmek için somut çözüm yöntemleri ortaya konulmalıdır.

   Yapay zekanın teknoloji sektörünün yapı taşlarından biri olduğu, insanlığa sağladığı fayda ve rahatlık düşünüldüğünde yapay zeka çalışmalarını durdurmaktan bahsetmek bile mümkün değil. Burada yapay zeka etiğinin önemi bir kez daha ortaya çıkıyor. Yapay zekanın olumsuz etkilerini azaltacak en önemli çözüm yöntemlerinden biri yapay zeka etiğinin geliştirilmesidir. Günümüzde bazı kuruluşlar Yapay zekanın etik kodlarını geliştirse de, tüm endüstri tarafından evrensel ve kabul görmüş bir yapay zeka etiği geliştirmek, yapay zeka ile ilgili sorunların çözümünde oldukça etkili olacaktır. Ancak yapay zeka etiğinin gelişiminin tek başına bu sorunlar üzerinde etkili olmasını beklemek yeterli değildir. Ayrıca yapay zeka etiğinin yasal düzenlemelerdeki yeri tartışılmalı ve mevcut eksiklikler giderilmelidir.

   Özellikle yapay zeka temelli suçlarda caydırıcı unsurların varlığı suçların azaltılmasında oldukça önemlidir. Geliştirilen etik sistemin ve bu yasal düzenlemelerin uygulanmasını kolaylaştırmak için her şirketin bir yapay zeka etiği ekibine sahip olması ve bu ekibin şirketin yapay zeka çalışmalarını denetlemek ve devlete ve kamuoyuna raporlamaktan sorumlu olması gerekir. Halihazırda bazı şirketlerde bu yapılıyor olsa da Google'da yapay zeka etiği üzerine çalışan ekibin eski lideri Timnit Gebru'nun başına gelenler, mevcut yapay zeka etiği ekiplerinin işlevselliğinin pek iç açıcı olmadığını gösteriyor.

Havin Jiyan Fidan

Yorum Gönder

Daha yeni Daha eski