YAPAY ZEKA ETİĞİ NEDEN ÖNEMLİDİR?
Yapay zeka (AI) kavramı ilk olarak Alan Turing tarafından “Makineler
düşünebilir mi?” sorusuyla ortaya atılmıştır. Ortaya çıkışı 2. Dünya Savaşı
sırasındaki analiz ve ölçüm gereksinimlerine yöneliktir. “Yapay zeka” terimi
ilk kez 1956 yılında, New Hampshire’daki Dartmouth Üniversitesi’nde yapılan bir
konferans sırasında John McCarty tarafından kullanılmıştır. Bu nedenle 1956
yılının yapay zeka kavramının doğum yılı olduğu söylenebilir. Sonraki yıllarda,
Perceptron adlı yapay sinir ağının keşfi, yapay zekanın artık
uygulanabileceğini kanıtladı. Ünlü satranç ustası Garry Kasparov'un 1997
yılında IBM (International Business Machines) tarafından geliştirilen Deep Blue
adlı yapay zekaya yenilmesi, yapay zekanın hayata fiilen girişi olarak kabul
ediliyor.
Şu anda yapay zekanın insanlığımız ve toplumumuz üzerinde önemli bir
etkisi var. Güvenlik ve savunma sanayi, sesli asistanlar, dil çevirileri, öneri
sistemleri, navigasyon, sosyal güvenlik, sağlık hizmeti, e-ticaret, yardımcı
robot uygulamaları vb. alanlarda kullanılmaktadır. Yapay zekanın hayatımızda
hızla yer edinmesinin bir sonucu olarak bu kavramın insan psikolojisine ve
toplumsal hayata olan etkilerinin araştırılması ihtiyacı doğmuştur. Bunun
üzerine araştırmacılar, yapay zekanın doğru ve sorumlu bir şekilde
kullanılması, toplum üzerindeki olumsuz etkilerinin en aza indirilmesi ve
etkinliğinin artırılması için yapay zeka etiğini tartışmaya başladılar. Yapay
zeka, ürün ve hizmetlerin ayrılmaz bir parçası haline geldiğinden, kuruluşlar
yapay zeka etik kuralları geliştirmeye başlıyor. Bu yazıda, AI etiğinin ne
olduğunu, neden önemli olduğunu ve hala tartışmalı olan birkaç yönü
inceleyeceğiz.
Etik Nedir?
Tarihsel süreç içerisinde etik kavramının birçok tanımı yapılmıştır.
Oxford sözlüğünde, bir kişinin davranışını veya bir faaliyetin yürütülmesini
yöneten ahlaki ilkeler olarak tanımlanır. Başka bir deyişle, etik, neyin iyi
veya doğru olduğunu belirlemeye yardımcı olan bir ilkeler, kurallar veya
yönergeler sistemidir. Genel olarak, etik, doğruya karşı yanlışı ve varlıkların
ahlaki yükümlülüklerini ve görevlerini ele alan disiplin olarak tanımlanabilir.
Etik, birçok araştırmacının ve filozofun üzerinde çalıştığı bir konudur.
Etik, bireylere yaşamları boyunca ahlaki bir rehber görevi gördüğü için erdem
etiği kavramı, aileleri, öğretmenleri ve çevresindeki diğer yetişkinler
tarafından insanlara çok küçük yaşlardan itibaren aşılanır. Erdem etiği, ahlaki
olarak neyin iyi neyin kötü olduğunu ve bir eylemi neyin doğru neyin yanlış
yaptığını inceleyen normatif etiğin bir parçasıdır. Aristoteles'e göre erdem
olmadan mutluluk mümkün değildir. İnsanların diğer canlılar ve makinelerle
artan etkileşimi, araştırmacıları etik teorilerini hayvan etiği, iş etiği ve
askeri etik gibi farklı alanlara ayırmaya yöneltmiştir. Bu konunun uzun bir
tarihsel gelişimi vardır ve etiğe ilişkin birçok farklı ve ortak yaklaşım
mevcuttur.
“Ahlaki Yapay Zeka” ve “Yapay Zeka Etiği”
Nedir ve Neden Önemlidir?
Yapay zeka etiği, teknoloji etiğinin yapay zeka sistemlerine özgü
dalıdır. Yapay zeka etiği, yapay zeka teknolojisinin geliştirilmesini ve
sorumlu kullanımını bilgilendirmeyi amaçlayan bir ahlaki ilkeler ve teknikler
bütünüdür. Yapay zekanın “ahlaki yapay zeka
ve yapay zeka etiği” olmak üzere iki boyutu vardır ve ahlaki yapay zeka;
bu iki boyutun yapay zeka, insan ve toplum ile nasıl etkileşime girdiğine
odaklanır. Normatif etik çalışmalarında temel soru “Ahlaki olarak iyi ve kötü,
doğru veya yanlış nedir?” sorusudur. Ahlaki yapay zekada üç soru vardır:
"Yapay zeka diğer yapay zekalarla etik
olarak nasıl etkileşime girmeli?", "Yapay zeka insanlarla etik olarak
nasıl etkileşime girmeli?", "Yapay zeka toplumda etik olarak nasıl
çalışmalı?". Bu sorulara ek olarak, ahlaki yapay zeka, insanların yapay
zeka teknolojisini etik olarak nasıl iyileştirmesi ve kullanması gerektiğini de
dikkate alır.
Şimdiye kadar yapay zeka etiği konusunda en çok bilinen ve en tartışmalı
önerilerden biri Amerikalı bilimkurgu yazarı Isaac Asimov tarafından 1942
yılında "Three Laws of Robotics" ile yapılmıştır. İlk yasa, bir
robotun bir insana zarar vermeyeceğidir veya eylemsizlik yoluyla bir insanın
zarar görmesine izin verir. İkinci yasa, bir robotun kendisine bir insan
tarafından verilen herhangi bir talimata uymasıdır. Üçüncü yasa ise robotun
kendisine zarar vermesine neden olabilecek eylem veya durumlardan kaçınması
gerektiğidir Pek çok bilgisayar mühendisi, programlama hakkında nasıl
düşüneceklerine karar vermek için bu üç yasayı bir araç olarak kullanır. Ancak
az önce de belirtildiği gibi bu üç kanun oldukça tartışmalıdır. Çin'deki Wuhan
Üniversitesi'nden filozof Chris Stokes, bu yasaların mantıksal hatasını şöyle
açıklıyor: "Birinci Yasa, dildeki belirsizlik ve basit bir evet veya hayır
yanıtı veremeyecek kadar komplike olan karmaşık etik sorunlar nedeniyle başarısız
oluyor. İkinci Yasa, canlı varlıkların köle olarak kalmasını gerektiren bir
yasaya sahip olmanın etik olmayan doğası nedeniyle başarısız olur. Üçüncü Yasa,
bu yasalar sistemine yerleşik muazzam miktarda potansiyel sömürü ile kalıcı bir
sosyal tabakalaşmaya neden olduğu için başarısız olur."
Şu anda, farklı kuruluşlar, şirketlerin güven oluşturmasına ve yapay
zekayı güvenle ölçeklendirmesine olanak sağlamak için yapay zeka etik kuralları
geliştiriyor (ör. IBM, Microsoft). Birçok araştırmacı yapay zekanın potansiyel
risklerini ve etik ikilemlerini inceliyor. Ama neden bu kadar önemli?
İnsanlarda “ahlaki pusula” denen bir şey var. Bir kişinin beynine oturan
ve temelde doğruyu yanlışı söyleyen bir ajandır. Bir adaletsizlik gördüğünüzde,
beyniniz size bir şeylerin doğru olmadığını söyler. Ondan gelen eylemler size
kalmış, ancak doğruyu yanlışı ayırt edebilirsiniz. Ahlaki pusulanızın
standartları, büyük ölçüde yetiştirilme tarzınıza ve çevrenize bağlıdır, ancak
çoğu insan bu pusulalardan birine sahiptir. Aynı zamanda şirketlerin etik ve
uyumlarını neyin üzerine inşa ettikleri, neyin doğru neyin yanlış olduğu ve
buna dayalı olarak kuralları nasıl belirlediğimizdir. Yapay Zeka böyle bir
pusuladan yoksundur. Aslına bakarsanız, herhangi bir pusuladan yoksundur. Yapay
Zeka, yalnızca “doğru” etiketine ve “yanlış” etiketine sahip verilere dayanarak
doğruyu yanlıştan ayırabilir. Yapay zekanın kendi farkındalığı yoktur ve etiğin
temeli olan “empati” denen şeye de sahip değildir. Yapay zeka hakkında
konuşurken var olan tek ahlaki pusula, neyin doğru neyin yanlış olduğu
konusunda çıtayı belirleyen geliştiricisinin pusulasıdır. Geliştiricinin ahlaki
pusulası düşükse, kötü niyetlerle yapay zeka geliştirebilir. Etik yapay zekanın
önemi burada ortaya çıkıyor. Yapay zekanın potansiyel risklerini azaltmak ve
yapay zekayı insanlık için daha verimli hale getirmek için teknoloji sektörünün
yapay zeka etiğine ihtiyacı var.
Bu yazının kalanında yapay zeka ile ilgili üç etik konuyu açıklayıp
tartışacağız.
1.Cinsiyet/ Irk Eşitliği
Cinsiyet ve ırk eşitsizliği, maalesef
tarih boyunca toplumların kültürlerinde ve günlük yaşamlarında yerleşik
hale gelmiş bir olgudur. Feminist ve anti-faşist mücadelelerle geçen yıllar
boyunca cinsiyet ve ırk eşitsizliğine maruz kalan bireyler ve topluluklar
dünyanın belirli bölgelerinde eşit haklar elde etmeyi başardılar. Bununla
birlikte, cinsiyet ve ırk eşitliği dünyanın birçok yerinde hala tam olarak
anlaşılmamış veya uygulanmamıştır. Toplumların ve bireylerin hayatlarının bir
parçası olan ve mücadele edilen bu eşitsizlikler yapay zeka sektöründe de
kendini gösterebilmektedir. Yapay zeka da kendi yargıları ve fikirleri olan
kişiler tarafından oluşturulduğundan ve yukarıda da belirtildiği gibi yapay
zekanın ahlaki pusula ve empatiden yoksun olması ve karar verme sürecinde
insanlardan toplanan verileri kullanması nedeniyle bazı sorunlar ortaya
çıkabilmektedir.
Yapay zeka sektöründe cinsiyet ve ırk ayrımcılığının en çok görüldüğü
noktalardan biri de yüz tanıma teknolojisidir. Genç bir Afrikalı-Amerikalı
bilgisayar bilimcisi olan Bayan Buolamwini, yüz tanımanın önyargısını ilk elden
deneyimledi. Georgia Teknoloji Enstitüsü'nde lisans öğrencisiyken, programların
beyaz arkadaşları üzerinde iyi sonuç vereceğini, ancak yüzünü hiç tanımadığını
söyledi. Çok geçmeden kesinlikle düzeltilecek bir kusur olduğunu düşündü. Ama
birkaç yıl sonra, M.I.T.'ye katıldıktan sonra Media Lab, yine kayıp yüz
problemiyle karşılaştı. Yazılım ancak beyaz bir maske taktığında onun yüzünün
yüzünü tanıdı. Ticari sistemleri test etmek için, Bayan Buolamwini, ofisteki
kadın oranının yüksek olduğu ülkelerdeki milletvekillerinin yüzlerini
kullanarak 1.270 yüze sahip bir veri seti oluşturdu. Kaynaklar, ağırlıklı
olarak koyu tenli nüfusa sahip üç Afrika ülkesini ve çoğunlukla açık tenli
sakinleri olan üç İskandinav ülkesini içeriyordu.
Afrikalı ve Kuzeyli yüzler, dermatologlar tarafından cilt tiplerini
sınıflandırmak için kullanılan altı noktalı bir etiketleme sistemine göre
puanlandı. Tıbbi sınıflandırmaların ırktan daha objektif ve kesin olduğu
belirlendi. Ardından, her şirketin yazılımı, cinsiyet dengesi ve çeşitli cilt
tonları için hazırlanmış küratörlü veriler üzerinde test edildi. Sonuçlar biraz
değişti. Microsoft'un koyu tenli kadınlarda hata oranı yüzde 21 iken IBM'in,
Amazon'un ve Megvii'nin hata oranının yüzde 35'e yakın olduğu ortaya çıktı.
Halbukiçık tenli erkekler için hepsinde yüzde 1'in altında hata oranları vardı.
Beyaz bir adamsanız yüz tanıma doğrudur. New York Times, Bayan Buolamniwi
araştırmasını halkla paylaştığında ve teknolojiye yönelik şikayetlerini dile
getirdiğinde Microsoft, bu konu üzerinde çalıştıklarını ve ön yargıyı anlamaya
ve ortadan kaldırmaya çalıştıklarını belirtirken, Amazon bu iddiaları ısrarla
yalanladı ve Megvii eleştiriler karşısında sessiz kaldı.
Firmaların bu sorunu çözmeye yönelik sessiz ve etik olmayan tutumları,
toplumsal hayatta ciddi eşitsizliklere neden olabilmektedir. Örneğin, yüz
tanıma şu anda Detroit gibi şehirlerde kolluk kuvvetleri tarafından kullanılıyor
ve bu yazılıma eklenen ırksal önyargı zarar veriyor. Bazı sanıklar etnik
kökenleri nedeniyle yanlışlıkla yüksek riskli olarak etiketleniyor. Toplu
konutlardan ceza adalet sistemine kadar her şeyde mevcut ırksal profilleme ve
ayrımcılığı şiddetlendiriyor. Algoritmik önyargı ve veri madenciliği üzerine
çalışan bir bilgisayar bilimcisi olan Timnit Gebru, yüz tanımanın şu anda
kolluk kuvvetleri ve güvenlik amaçları için kullanılamayacak kadar tehlikeli
olduğuna inandığını ifade etti.
Yapay zekanın neden olabileceği ayrımcılık ırk ve cinsiyet ile sınırlı
değildir. Dünyanın farklı yerlerinde ayrımcılığa uğrayan her birey ve grup bu
tehlikeyle karşı karşıyadır. Yapay zeka tarafından toplanan verilerin içeriği
ayrımcılığa uygun olduğunda veya matematiksel azınlıkta olan gruplar olduğunda
algoritmik yanlılık kavramı ortaya çıkmakta ve bu kavram yapay zekanın
yaratıcısına veya veri tabanına bağlı olarak ayrımcılığa ne kadar açık olduğunu
ortaya koymaktadır. Algoritmik önyargıyı daha iyi açıklamak için bir örnek
verilebilir. Birkaç yıl önce, Amazon bir özgeçmiş tarama aracı oluşturmak için
yapay zekayı kullanmaya çalıştığında Reuters'e göre şirket, teknolojinin iş
başvurularını sıralama sürecini daha verimli hale getirmesini umuyordu.
Şirketin on yıldır topladığı özgeçmişleri kullanarak bir tarama algoritması
oluşturdu, ancak bu özgeçmişler çoğunlukla erkeklerden gelme eğilimindeydi. Bu,
sistemin sonunda kadınlara karşı ayrımcılık yapmayı öğrendiği anlamına
geliyordu. Ayrıca, başvuranın bir kadın kolejine gidip gitmediği gibi, cinsiyet
için vekilleri kriterlere ayırdı. Yani yapay zeka, herhangi bir insanın
müdahalesi olmadan kendi başına, verilere dayanarak ayrımcılık yapmayı öğrendi.
2. Yapay Zekanın Kötüye Kullanımı
Yapay zeka, insanlara günlük yaşamlarında birçok alanda fayda sağlıyor. Bu
nedenle insanların hayatlarının ayrılmaz bir parçası haline gelmiştir.
Getirdiği yeniliklerle birçok yönden insanların hayatını kolaylaştırmış olsa da
yapay zeka suistimale karşı oldukça hassastır. Yazının önceki bölümlerinde
yapay zekanın ahlaki pusuladan yoksun, iyiyi kötüyü ayırt edemeyecek durumda
olduğundan ve bunu ancak insanlardan topladığı verileri analiz ederek ya da
yaratıcısının programlaması doğrultusunda yapabileceğinden bahsetmiştik. Yapay
zekanın yaratıcısı bunu kötüye kullanırsa, hayatımızdaki önemli yeri
düşünüldüğünde bunun birçok yönden yıkıcı sonuçları olabilir.
Yapay zekanın en popüler suistimallerinden biri, gerçek görünmeleri için
sesli ve görsel içeriği oluşturmak veya değiştirmek için yapay zeka
tekniklerinin kullanılmasını içeren deepfake’lerdir. Teknolojik çözümlerin
kullanımıyla bile, meşru içerikten hemen ayırt etmek zordur. Bu nedenle toplumu
yanıltmak için kullanılmaya son derece uygundur. İnternet ve sosyal medyanın
yaygınlaşması nedeniyle dünyanın farklı yerlerinde milyonlarca birey hayal
gücünün ötesinde hızlarda deepfake’lere ulaşabilmektedir. Deepfake’ler, birçok
kişi için korkunç amaçlarla gerçekliği yok etme potansiyeline sahiptir. Buna
bir örnek, Malezyalı bir siyasi yardımcının bir kabine bakanıyla cinsel ilişkiye
girdiğini gösteren, sahte olduğu iddia edilen bir videodur. 2019'da yayınlanan
video, kabine bakanının yolsuzluk iddiasıyla soruşturulmasını da gerektiriyor.
Özellikle, bu videonun yayınlanmasının bir sonucu olarak, koalisyon hükümetinin
istikrarı bozuldu, bu da derin sahtekarlıkların olası siyasi sonuçlarını
kanıtladı. Bu arada başka bir örnek de şunu içerir: Suçlular, bir CEO'nun
sesini taklit etmek için yapay zeka tabanlı ses teknolojisini kullandı ve
243.000 dolarlık hileli bir transfer talep etti. Bu münferit bir olay değildir. PINDROP, 2013
ve 2017 yılları arasında ses dolandırıcılığında %350'lik bir artış bildirdi.
Yapay zekanın kötüye kullanılmasının bir başka popüler örneği de yapay
zeka destekli parola tahminidir. Siber suçlular, kullanıcıların şifrelerini
tahmin etmeye yönelik algoritmaları geliştirmek için makine öğrenimi
kullanıyor. HashCat ve John the Ripper gibi daha geleneksel yaklaşımlar zaten
mevcuttur ve karmaya karşılık gelen parolayı başarılı bir şekilde belirlemek
için parola karmasının farklı varyasyonlarını karşılaştırır. Bununla birlikte,
sinir ağlarının ve Üretken Düşman Ağların kullanılmasıyla siber suçlular, geniş
parola veri kümelerini analiz edebilecek ve istatistiksel dağılıma uyan parola
varyasyonları oluşturabilecektir. Gelecekte bu, daha doğru ve hedefli parola
tahminlerine ve daha yüksek kâr şansına yol açacaktır. Şubat 2020'deki bir
yeraltı forum gönderisinde, 1,4 milyar kimlik bilgilerini ayrıştırma ve parola
varyasyon kuralları oluşturma özelliğine sahip bir parola analiz aracı içeren
bir GitHub deposu bulundu.
Yapay zekanın yanlış kullanımı,
yukarıda verilen örnekler gibi hayatın birçok alanında ortaya çıkabilir. Yapay
zekanın hayatımızda önemli bir yer tutması ve topladığı veriler sayesinde
hakkımızda çok fazla bilgiye sahip olması nedeniyle bu yanlış kullanım,
sahtekarlık gibi suçların yanı sıra şeffaflık ve yapay zekaya karşı güvensizlik
gibi sorunlar da yaratabilmektedir. Çoğu durumda yapay zekayı kötüye kullanan
insanlar olsa da, bireylerde oluşabilecek güvensizlik hissi, yapay zeka
kavramının bireyler tarafından yanlış anlaşılmasına neden olabilmektedir.
Yukarıda yapay zekanın ırk ve cinsiyet eşitliği boyutuna değinilirken, yapay
zekanın yaratıcısının kendi ön yargılarını yarattığı ürüne yansıtabileceği
belirtildi. Yapay zekanın kötüye kullanımı sırasında toplumsal yaşamı derinden
etkileyen ayrımcılık ve eşitlik gibi kavramların istismar edilmesi durumunda
toplumların psikolojisi ve yaşamı ciddi şekilde etkilenebilir ve bu yönde
işlenen nefret suçlarında artış gözlemlenebilir.
3. İşsizlik
Yapay zeka, insan yaşamının birçok alanında yaygın olarak
kullanılmaktadır. Teknolojideki son gelişmeler sayesinde yapay zeka, insanların
yaptığı birçok şeyi yapabilir hale geldi. Üstelik yapay zeka dinlenme ya da
sağlık sigortası gibi insani ihtiyaçlara gereksinim duymadığı için daha az
maliyetli ve daha uzun saatler çalışabiliyor. Bu nedenlerle yapay zeka,
işverenler için birçok yönden daha karlı hale geldi. Teknolojinin bu hızlı
gelişimi ve işverene sağladığı avantajlar sonucunda yapay zeka robotlarının
insanların işlerini elinden alması mümkün müdür?
Bazı uzmanlar bu endişenin yersiz olduğunu, yapay zekanın insanların
yerini almak için değil, insanlara yardım etmek için geliştirildiğini
savunuyor. Bazı alanlarda yapay zeka insanlara tercih edilse de yapay zekanın
gelişmesinin insanlara yeni alanlar açacağını ve yeni iş olanakları sunacağını
düşünüyorlar. Ancak yapay zekanın insanların yapabileceği birçok şeyi yapabilir
hale gelmesi ve birçok alanda yaygın olarak kullanılmasıyla birlikte uzman ve
karşıt görüşlü kişilerin sayısı artıyor. Yapay zekanın insan işinin yerini
aldığı bazı alanlar kuryeler, bilgi teknolojisi (BT) ve emlaktır. Kurye ve
teslimatçıların yerini dronlar ve robotlar alıyor ve birkaç yıl içinde
otomasyonun bu alana hakim olacağı öngörülüyor. Bu alanın 2024'te %5 büyümesi
bekleniyor. BT'de, 2024'te otomasyonun %12 artması bekleniyor. Önceden herhangi
bir yazılım kodunu test etmek için insanlara ihtiyaç vardı. Ancak artık
otomatik testler yapıldığından herhangi bir insani test cihazına ihtiyaç
yoktur. Böylece sektördeki BT uzmanlarına olan ihtiyacı azalıyor.
Gayrimenkulde, acenteler ev alıp satmada önemli bir rol oynamaktadır. Ancak bu
bilgi çağında her şey insanların parmaklarının ucunda. Sihirli tuğlalar ve 99 dönüm
gibi çevrimiçi hizmetler, müşterilerin mülklerini aramasına yardımcı olur.
Böylece teknoloji konusunda bilgili bir satıcı, herhangi bir temsilciye ihtiyaç
duymadan müşterilere kolayca ulaşabilir.
Yapay zeka hali hazırda bu alanlarda yaygın olarak kullanılırken diğer
alanlarda da kullanımının artmasının temellerini atıyor. Yapay zeka iş,
eğitim, piyasa ve devlet sektöründe de anlam kazanmıştır. Şu ana kadar ciddi iş
kayıplarına yol açmasa da bu durum birçok insanı korkutuyor. Yukarıda da
bahsedildiği gibi normalde bu gibi durumlarda insanları rahatlatan yegane
düşüncelerden biri yapay zekanın teknoloji sektöründe yeni iş imkanları
sunacağı ve yapay zekanın gelişimi doğrultusunda istihdamın artacağıdır. Ancak
Mayıs 2017'de Google Brain'deki araştırmacılar, kendi yapay zekalarını
oluşturabilen bir yapay zeka (AI) olan AutoML'nin oluşturulduğunu duyurdular.
Yapay zekanın insana ihtiyaç duymadan kendini geliştirme olasılığı, yapay
zekanın geliştirilmesi ihtiyacının bu sektörde istihdamı artıracağı veya teknoloji
sektöründe yeni iş olanakları sunacağı düşüncesini ortadan kaldırmaktadır. 2030
yılına kadar 45 milyon Amerikalı, işgücünün yaklaşık dörtte birini temsil eden
yapay zeka otomasyonu nedeniyle işlerini kaybedebilir. Dünya çapında, yapay
zeka nedeniyle önümüzdeki on yıl içinde bir milyar insan işini kaybedebilir ve
375 milyon iş, yapay zeka otomasyonundan dolayı eskime riskiyle karşı
karşıyadır. Elon Musk, "bilgisayarlar, akıllı makineler ve robotlar
geleceğin iş gücü gibi görünüyor ve giderek daha fazla işin yerini teknoloji
aldıkça insanların yapacak daha az işi olacak ve nihayetinde, hükümet."
Çözümler
Yapay zeka, son yıllarda insan yaşamının ayrılmaz bir parçası haline
geldi. Sağladığı faydalar sayesinde insanlar hayatlarını daha rahat yaşayabilir
hale gelmiştir. Sağlık hizmetleri, güvenlik ve navigasyon gibi birçok alanda
getirdiği yenilikler, toplumların yaşam kalitesini birçok açıdan artırmıştır.
Ancak yapay zeka ahlaki değerler açısından hala tartışmalı bir kavram ve bazı
durumlarda insanlık için tehlike arz ediyor. Uzmanlar, yapay zekanın işleyişini
ve toplum ve bireyle olan etkileşimini etik açıdan inceliyorlar. Birçok şirket
ve kuruluşun bu alanla ilgilenen birimleri vardır. Yukarıda yapay zeka ile
ilgili üç etik konuya değinilmişti. Bu tür sorunları ve ahlaki ikilemleri
çözmek için sektörde çözüm üretmeye çalışan kişi ve kuruluşlar olduğu gibi bunu
arka planda tutan ve gerektiği kadar umursamayan kişi ve kuruluşlar da
bulunmaktadır. Ancak bu sorunların etkilerini ve tehlikeli sonuçlarını en aza
indirmek için somut çözüm yöntemleri ortaya konulmalıdır.
Yapay zekanın teknoloji sektörünün yapı taşlarından biri olduğu,
insanlığa sağladığı fayda ve rahatlık düşünüldüğünde yapay zeka çalışmalarını
durdurmaktan bahsetmek bile mümkün değil. Burada yapay zeka etiğinin önemi bir
kez daha ortaya çıkıyor. Yapay zekanın olumsuz etkilerini azaltacak en önemli
çözüm yöntemlerinden biri yapay zeka etiğinin geliştirilmesidir. Günümüzde bazı
kuruluşlar Yapay zekanın etik kodlarını geliştirse de, tüm endüstri tarafından
evrensel ve kabul görmüş bir yapay zeka etiği geliştirmek, yapay zeka ile
ilgili sorunların çözümünde oldukça etkili olacaktır. Ancak yapay zeka etiğinin
gelişiminin tek başına bu sorunlar üzerinde etkili olmasını beklemek yeterli
değildir. Ayrıca yapay zeka etiğinin yasal düzenlemelerdeki yeri tartışılmalı
ve mevcut eksiklikler giderilmelidir.
Özellikle yapay zeka temelli suçlarda caydırıcı unsurların varlığı
suçların azaltılmasında oldukça önemlidir. Geliştirilen etik sistemin ve bu
yasal düzenlemelerin uygulanmasını kolaylaştırmak için her şirketin bir yapay
zeka etiği ekibine sahip olması ve bu ekibin şirketin yapay zeka çalışmalarını
denetlemek ve devlete ve kamuoyuna raporlamaktan sorumlu olması gerekir.
Halihazırda bazı şirketlerde bu yapılıyor olsa da Google'da yapay zeka etiği
üzerine çalışan ekibin eski lideri Timnit Gebru'nun başına gelenler, mevcut
yapay zeka etiği ekiplerinin işlevselliğinin pek iç açıcı olmadığını
gösteriyor.
Havin Jiyan Fidan