Yapay zekanın kusurları yüzünden bir daha sonraki otomobiliniz ırkçı olabilir

IşıkHaber

New member
Theodore Kim*

Geçtiğimiz günlerde, Tesla, kullandığı yazılımın federal bir kurumun soruşturmasına bahis olan acil durum müdahale araçlarının karıştığı bir düzine kazada rol oynamasının daha sonrasında, şoförsüz araç yazılımının en yeni versiyonunu piyasaya duyurdu. Kazalar çeşitli sebeplerle yaşanmış olsa da, bu hadiselerdeki değerli etkenlerden biri, aracı süren yapay zekanın ikaz ışıklarını ve emniyet şeridine çekilen araçları görmeye alışkın olmaması ve altta yatan algoritmaların bunlara öngörülemeyen ve en makûs biçimlerde reaksiyon vermesi olabilir.

Günümüzün yapay zeka sistemleri, farklı kaynaklardan elde edilen büyük fotoğraf ve görüntü imgesi bilgi kümeleri aracılığıyla “eğitiliyor” ve bu eğitimi duruma uygun davranışı saptamak maksadıyla kullanıyor. Buna rağmen, imgeler, şayet acil durum müdahale araçlarının yakınlarında nasıl yavaşlayacağı üzere makul davranışlarla ilgili biroldukça örneği içermiyorsa, yapay zeka, gereken davranış biçimlerini öğrenemez. Hâl bu biçimde olunca da mesela ambulanslara çarparlar.

ALTTA YATAN SEBEPLER

Bunun üzere feci başarısızlıklar hesaba katıldığında, makine tahsili alanındaki son eğilimlerden biri, bu tıp ihmal edilen olayları tanımlamak ve yapay zekanın öğrenmesine yardım etmek emeliyle ‘sentetik/yapay’ eğitim dataları kurgulamak oldu. Hollywood’un meşhur ‘The Avengers: Endgame’ sinemasında ‘Yeşil Dev’ Hulk’ın, birlerin ve sıfırların akışından oluşturmak için kullandığına misal algoritmaları kullanarak, gerçek hayatta çabucak hemen rastlanmamış olan acil müdahale araçlarının foto-gerçekçi manzaraları dijital ortamdan çağrılır ve yapay zeka bunlarla beslenir.

Harry Potter ve İdeoloji Taşı’ndaki ‘seçmen şapkayı’ yaratmak için kullanılan yazılımdan beridir, geçmişte kıdemli bir araştırma bilimcisi olduğum Pixar’ın son sinemalarına dek, son 20 yıldır bu algoritmaları tasarlıyor ve kullanıyorum.

Yapay zekaları eğitmek için bu algoritmaların kullanılması çok derece tehlikeli olabilir; çünkü bilhassa de beyaz insanları tasvir edecek halde tasarlanmışlardır. Bu yazılımın temelinde yatan karmaşık fiziğin tamamı, bilgisayar bilimi ve istatistikler, soluk, beyaz bir cildin dağınık ışıltısı ile uzun ve düz saçlardaki pürüzsüz parıltıları gerçekçi bir halde tasvir etmek emeliyle tasarlandı. Öbür yandan, bilgisayar grafik araştırmacıları, koyu ve siyah bir derisi karakterize eden parlaklığı ve ışıltıyı ya da Afro saçların özelliklerini sistematik formda araştırmadılar. Sonuç itibariyle, Hollywood algoritmalarında bu görsel olguların fiziği kodlanmadı.

ÖNEMSENMEYEN FARKLAR BÜYÜK SONUÇLAR DOĞURABİLİR

Doğal ki, Pixar’ın geçen yıl seyirciyle buluşan Soul’u üzere sinemalarda ‘sentetik’ Siyah beşerler tasvir edildi. Ne var ki sahnelerin art planında, ışıklandırma sanatkarları yazılımı var iseyılan ayarların dışına çıkmak için zorlamak durumunda kaldıklarını ve bu karakterleri yaratmak için yeni aydınlatma tekniklerini öğrenmek zorunda kaldıklarını fark ettiler. Kullandıkları araçlar beyaz olmayan insanları tasvir etmek gayesiyle tasarlanmamıştı; dünyanın teknik açıdan en yetenekli sanatkarları dahi onları tesirli bir biçimde kullanabilmek konusunda ziyadesiyle zorlandılar.

Ne olursa olsun, şu anda ‘Datagen’ ve ‘Synthesis AI’ üzere yeni kurulan şirketler, yarının yapay zekaları tarafınca kullanılması için özel olarak kapsamlı insan data kümeleri oluşturmak doğrultusunda tıpkı beyaz insan tasarım algoritmalarını kullanıyorlar. Bir grup sonuçlar üzerinde yapılan eleştirel bir inceleme, bir daha birebir kalıpları ortaya koyuyor. Beyaz deri aslına uygun halde tasvir edilirken, Siyah tenin karakteristik parlaklığı ya rahatsız edici, ya noksan ya da hüzün verici halde çok aydınlık.

Bu yanılgılı algoritmalardan sağlanan datalar yapay zekalar tarafınca alındıktan daha sonra, arızaların kaynağını teşhis etmek neredeyse olanaksız hale gelir. Tesla’nın Roadster isimli araçları beklenmedik bir halde Siyah sıhhat bakılırsavlilerinin ya da doğal saç tarzları [Afro] olan Oakland sakinlerinin üzerinden geçmeye başladığı vakit, bu otomobiller “hiç kimse bana Siyah bir tenin gerçek hayatta nasıl göründüğünü söylemedi” diye geri bildirimde bulunmaz. Yapay hudut ağlarının davranışlarının, eğitim kümelerinde var olan muhakkak problemleri gözden geçirmesi fazlaca güç ve bu durum da sorunun kaynağını çok derece görünmez hale getiriyor.

Sentetik eğitim dataları, ayrıntıları gerçek dünyadan toplamak çok masraflı olduğunda kullanışlı bir kestirme yol olabilir. birebir vakitte, yapay zeka uygulayıcıları kendilerine şu soruyu sormalı: Olası sonuçlar hesaba katıldığında, buna paha mi? Şayet cevabınız ‘hayır’ ise, işleri sıkıntı yoldan, yani gerçek dünyadaki dataları toplayarak yürütmeniz gerekir.

Hollywood üzerine düşen sorumluluğu yerine getirmeli ve bütün bir insanlık yelpazesini hassasiyetle, ölçülü ve aslına uygun formda tasvir edebilen algoritmaların araştırılmasına ve geliştirilmesine yatırım yapmalı. Bu, sırf anlatılabilecek kıssa yelpazesini genişletmekle kalmaz, bununla birlikte sözün tam manasıyla birilerinin hayatını da kurtarabilir. Bu yapılmazsa, Siyahların hayatının değerli olduğunun farkında olsanız bile, yakın gelecekte otomobiliniz bunun farkında olmayacak.


Yazının özgünü LA Times sitesinden alınmıştır. (Çeviren: Tarkan Tufan)
 
Üst