


Okuma Süresi: 10 dakika
Aralık 2020'de Google, yapay zeka etiği konusundaki en iyi araştırmacılarından biri olan Timnit Gebru'yu işten çıkardı. Şubat 2021'de ise etik ekibinin yardımcı lideri Margaret Mitchell'in işine son verdi. Google, olası senaryolara itiraz etse de; bu ‘son vermeler’, yapay zeka etiği alanındaki eski bir takım tartışmaları teknoloji dünyasında tekrardan gündeme getirmiş oldu.
İster bir sosyal medya akışının içeriğini belirliyor, isterse birinin kredi alıp alamayacağına karar veriyor olsun; her algoritmanın hayat içerisinde, yani “gerçek dünyada” kritik etkileri olabiliyor. Dolayısıyla bu tür girişimlerin, yardımcı olabildiği kadar zarar verme potansiyeli de olabilir. Kural koyucular, karar verici merciler, teknoloji şirketleri ve araştırmacılar, görmezden gelinmesi imkansız hale gelen bu gerçeği en etkin bir şekilde nasıl yönetebileceklerini tartışıyorlar.
2022 yılı içerisinde nasıl gelişmeler olacağına dair bir fikir edinmek adına, yapay zeka etiği alanındaki liderlerin görüşlerine baktık.
Christine Custis
Adalet, Şeffaflık, Yükümlülük (Hesap Verebilirlik) ve Güvenlik Başkanı, Partnership on AI
Head of Fairness, Transparency, Accountability, and Safety, Partnership on AI
Katılımla ilgili konulara dikkat çekmek isterim. Yani; araştırma sorularını, araştırma tasarımını ve sistem geliştirmeyi daha kapsayıcı hale getirmek ve bu soruları sorma biçimimizin de kapsamını genişletmek... Ancak bu şekilde, sadece bir sistemin geliştiricilerini, kullanıcılarını veya sahiplerini düşünüyor olmayız; aynı zamanda kullanıcı olmayıp etkilenecek olanları ve etkilenen diğer grupları da düşünüyor oluruz.
Yani teknolojinin bizim için neler yapabileceğini sormakla kalmayıp; nasıl kötüye kullanılabilir veya nasıl yanlış yorumlanabilir gibi kötü senaryoları da düşünmemiz gerekli. Ve belki de “Bu teknolojileri oluşturmakla hiçbir ilgisi olmayan marjinal toplulukları nasıl etkileyebilir?” sorusunu da sormalıyız.
Örneğin sipariş edilen yiyecekleri dağıtabilen robotlar harika bir fikir olabilir… Peki ya görme engelli insanlara etkisi nasıl olur? Onların kaldırım geçişlerini nasıl etkileyecek?
Katılım konusu son derece öznel olabilir. İnsan ve bilgisayar etkileşimi veya teknolojinin sosyal yönlerini düşünmek, teknoloji alanında çok zor bir iş. Akademik olarak; bu konudaki çalışmalar hala devam ediyor ve teknolojideki bu sosyal etkileşimler hakkında hala anlamadığımız çok şey var. Bu nedenle katılımlı tasarım (farklı paydaşları tasarım sürecine aktif şekilde dahil etmek) oldukça zor bir şey olacak.
R. David Edelman
Teknoloji, Ekonomi & Milli Güvenlik Projesi Direktörü, MIT
Director of the Project on Technology, the Economy, & National Security, MIT
Bu yıl, yapay zeka etiğinin, somut yapay zeka poliçeleri seviyesine sıçrayacağı yıldır.
Dünyanın her yerinde, bu alandaki kontrol edilemez gibi görülen soruların ötesine geçmemize; ve yapay zekanın en “vahşi” kusurlarını ehlileştirmek için kanunları ve poliçeleri kullanmaya başlamamıza yönelik olarak artan bir talep var. Otonom araçlar için “tramvay ikilemi” * sorununu ele alalım… Evet bu, “makine-karar verme” çağında seçimle ilgili zor ve derin soruları gündeme getiriyor.
Ancak, kendi kendini süren arabalar için temel bir sürücü testi geliştirmek için felsefi bir oybirliği yakalamayı bekleyemeyiz; hele de bu teknoloji her yıl yollarda can veren 40.000 Amerikalı’dan bazılarını kurtarabilecekken. Yapay zekanın, doğru güvenlik önlemleriyle; ulaşım, finans, tıp, eğitim ve daha pek çok alanda çok şey yapabileceğini biliyoruz. Bu güvenceleri tanımlamak, kamuya ait poliçeleri belirleyenlerin işidir; sınırlara saygı gösterecek sistemler tasarlamak ise, etik teknoloji uzmanlarının işidir.
Bu iki gruptan da, birlikte çalışabilecek daha fazla kişiye ihtiyacımız var. Ancak o zaman uzun süredir devam eden hukuk ilkeleri, teknoloji kullanımında da uygulanabilir hale gelecek. Yapay zeka şu an her yerde; ancak henüz “yönetilemez” bir durumda değil; onu bize karşı değil, bizim lehimize çalışacak şekilde şekillendirebiliriz.
Peki en büyük riskimiz? Yapay zekanın ne kadar olağanüstü şekillerde başarısız olabileceği karşısında hayranlıkla kalıp, sürekli zaman harcamak… Aslında yapmamız gereken; bu enerjiyi, değer verdiğimiz şeyleri korumak adına ihtiyaç duyduğumuz teknolojik ve yasal araçları oluşturmaya kanalize etmek. Mükemmel bir yapay zeka yakın gelecekte olmayacak. Kusurlarını nerede ve ne zaman tolere etmeye hazır olduğumuz konusunda netleşmek ise, bize kalıyor.
*TRAMVAY İKİLEMİ (Trolley Dilemma)
Felsefeci Philippa Foot ve Judith Jarvis’in ortaya attığı Tramvay İkilemi, “etik karar verme sürecinde”, karar ve tutumlarımızı etkileyen faktörleri görebilmek açısından önemlidir. Burada yer alan senaryo iki aşamalı olup, her iki aşama için eylem kararlarımız ve bu kararlarımızı etkileyen faktörleri görebilmemiz önemlidir.
Detaylı bilgi için: Büken NÖ.Tren/Vagon İkilemi (Trolley Dilemma) Hacettepe Üniversitesi Biyoetik Eğitim, Uygulama ve Araştırma Merkezi (HUBAM)
http://www.hubam.hacettepe.edu.tr/egitim/pdf/trenikilemi.pdf
Rumman Chowdhury
Makine Öğrenmesi Etiği, Şeffaflığı ve Yükümlülüğü (Hesap Verebilirliği) Direktörü, Twitter
(Director of Machine Learning Ethics, Transparency and Accountability, Twitter)
Dört gözle beklediğim en büyük gelişme; algoritmik seçim konusunda kullanıcılar için gerçekleşecek ilerlemeler. Bu sayede bireylere, sayısal sistemler konusunda daha fazla yetki, kontrol, anlayış ve şeffaflık sunulabilir. Twitter'da bunu yapmanın birkaç farklı yolunu araştırıyoruz. İnsanların gördüklerini istedikleri şekilde özelleştirmelerine ve uyarlamalarına olanak tanıyan ürün değişikliklerini uygulamaya devam etmek istiyoruz. Ayrıca, platformumuzun nasıl çalıştığını anlamalarına yardımcı olarak, bu özellikleri daha erişilebilir hale getirmek istiyoruz.
Elbette, uygulama söz konusu olduğunda, algoritmik seçim karmaşık zorluklar sunuyor. Öncelikle, algoritmik seçimin ne anlama geldiğine dair net bir tanım yok. Ayrıca sadece “seçme uğruna” seçenekler sunmak; veya “on” ya da “off” gibi ikili seçenekler sunmak da yeterli değil. Aslında bu alan, platformlar ve kullanıcılar arasındaki mevcut güç dinamiğini olumlu yönde etkileme konusunda devasa bir potansiyele sahip.
Abhishek Gupta
Kurucu ve Baş Araştırmacı, Montreal Yapay Zeka Etiği Enstitüsü
(Founder and Principle Researcher, Montreal AI Ethics Institute)
Yapay zeka etiği alanının bu yıl için çabası; önyargı ve diğer sorunlar adına denetim yapma konusunda daha fazla resmileşmedir. Özellikle bu, öncelikle Avrupa ve Kuzey Amerika'da, ama aynı zamanda Hindistan, Vietnam ve Çin gibi diğer ülkelerde de gündeme gelme aşamasında olan, hazırlığı yapılan veya hazır hale gelmiş bir takım yönetmeliklerin devreye girmesinin ardından gerçekleşecektir.
Resmileştirme, aynı zamanda, bu alanda sorun teşkil eden başka meselelerin de ortadan kaldırılmasına yardımcı olacaktır. Mesela; denetim kılavuzlarındaki standartlaştırma eksikliği ve bunların uygulanmasında görülen tutarlılık eksikliği gibi… Ayrıca, bu sistemlerin son kullanıcıları ve düzenleyicileri için denetim sonuçlarının daha anlamlı hale getirilmesine yardımcı olacak ve kişinin değerleriyle uyumlu çözümlerin seçilebilmesi için karşılaştırma yapmaya ve daha bilinçli seçimler yapmaya olanak tanıyacaktır. Yapay zeka etiğinde sıklıkla gündeme gelen şeffaflık ilkesini de destekleyecektir.
Bu konuda ön görülebilecek bir zorluk; özellikle farklı yetki alanlarında faaliyet gösteren kuruluşlar için, önerilen farklı düzenlemeler arasında uzlaşma ihtiyacı olacak gibi görünüyor.
Hem uzmanlık hem de finansal açıdan kaynak sağlama konusunda bir zorluk mevcut. Bu gereksinimleri etkin bir şekilde operasyonel hale getirebilmek için; hem teknik hem de sosyal bilim alanında deneyime sahip, disiplinler arası uzmanlara ihtiyacımız olacak. Ve günümüzde bu uzmanlık hala az bulunur durumda.
Kaynak:
Seven AI ethics experts predict 2022’s opportunities and challenges for the field