Sizi psikopat bir Yapay Zeka örneği ile tanıştıracağım. Adı Norman. Bu ismi iyi hatırlayın.
Ama önce bir soru.
Bu fotoğrafta ne görüyorsunuz?
İyi bakın. Yakından…
Size ne çağrıştırıyor?
Vazodaki çiçekler? Huzurlu bir gün batımı?
Herkesin başka bir cevabı olabilir.
Bizim psikopat yapay zekamız Norman ne gördü burada biliyor musunuz?
Vurularak öldürülmüş bir adam.
Norman? İyi misin?
Devam.
Burada peki? Ne görüyorsunuz? Bir düşünün.
Norman ne gördü peki?
Bir hamur yoğurma makinesinin içine atılmış bir adam.
Norman. Senin derdin ne?
Basit aslında. Anlatayım.
Önce ismi nerden geliyor onunla başlayayım. Psikopat ve Norman dediğimde kimilerinin aklında canlanmıştır belki.
Alfred Hitchcock’un 1960 tarihli kült filmi Psycho, Türkçe adıyla Sapık filminde Anthony Perkins’in canlandırdığı karakter. Spoiler vermeden birazdan konumuzla ilgili bağlantı kuracağımız bir iki önemli detaydan bahsedeyim. Filmde efendi görünümlü, mazlum gencimiz Norman Bates Psycho adını hak edecek kadar garip bir karakter olarak karşımıza çıkıyor. Diğer bir detay da bu mazlumun içinden bir Psycho çıkmasının altında çocukluğunda aile içinde yaşadığı çok sarsıntılı ve istismara varacak cinsten bir dönem.
Baştaki resimleri biliyorsunuz, bu soyut resimleri normalde psikologlar hastanın dünyaya bakış açısının olumlu mu yoksa olumsuz mu olduğunu anlamak için kullanıyorlar.
Ve işte bu resimlere bakıp acımasız çıkarımlar yapan Yapay Zeka algoritmasına da bu nedenle Norman adını veriyor mühendisler.
Evet. Bu yapay zekanın bilerek ve isteyerek psikopat olmasını istiyorlar.
Bunu isteyen de, yani bu Norman algoritmasını yazan da Massachusets Teknoloji Enstitüsünden bir ekip.
Manyaklar mı peki? Neden böyle bir şey yapar ki bir insan?
Amaç şu: “Yapay zeka internette bulunan rahatsız edici verilerle (bunlar fotoğraf, metin, video vs. olabilir) eğitildiğinde dünya görüşünün ne olacağını öğrenmek. Yani Yapay Zeka bir insan olsa ve bu inşan sürekli şiddete maruz bırakılsaydı nasıl bir insan olurdu. Bunu görmek.
Bunun için de, yani bahsettiğim “rahatsız edici” içerikler için de bildiğimiz Reddit’i kullanıyorlar. Biliyorsunuz. Reddit’te yok yok. Bayağı şiddet içeren bir sürü fotoğraf, video, yazı. Ne buldularsa veri olarak sunuyorlar bizim Norman’a.
İşte bu süreçten sonra gördüğü resimleri yazı ile ifade etme becerisi olan Norman algoritmasına başta bahsettiğim resimleri gösteriyorlar ve yine bahsettiğim korkunç cevapların dışında şöyle cevaplar veriyor Norman ne görüyorsun sorusuna:
“Ölü bedenler görüyorum”
“Kan görüyorum”
“Vahşet görüyorum”
Karşılaştırmalı bir çalışma olması amacıyla Norman ile birlikte başka bir algoritmayı da eğitiyor ekip.
Bu algoritmaya da şirin kediler, börtü, böcek. Ne kadar sevimli içerik varsa yüklüyorlar.
Bu algoritmaya Norman’a gösterdikleri aynı resimler gösteriliyor ve bu algoritma öpüşen çiftler, cıvıldayan kuşlar görüyor…
Norman’ı geliştiren ekipten Profesör Iyan Rahwan’a göre Norman’ın verdiği cevaplar daha önce detaylı bir şekilde incelediğimiz makine öğrenmesi dünyasının “karanlık yüzünü” ve karanlık olasılıkları bize açıkça gösteriyor.
Ve şu çok önemli cümleyi kuruyor:
“Görünüşe göre VERİ ALGORİTMADAN DAHA ÖNEMLİ”
“Yapay Zekayı eğitmek için kullandığımız veriler bu yapay zekanın dünyayı nasıl algıladığını ve nasıl davrandığını doğrudan etkiliyor”
Bu cümlelerin neden çok önemli olduğuna video sonunda geleceğim.
Şimdi. Yapay Zekayı daha önce de konuştuk detayları ile ve daha da çok konuşacağız ama “süper ihtimalleri” konuşurken bu tip olasılıkları da göz ardı etmememiz gerekiyor.
Çünkü Yapay Zeka artık önü alınamayacak bir hızla ilerliyor. Her yerde. Her anımızda. Ve çok daha hızlı bir şekilde hayatımızın her alanında karşımıza çıkacak.
Mesela geçen yıl Google Asistan’ın Telefon Araması yapabildiği ve sesi normal bir insandan ayırt edilemeyen bu algoritmanın çok normal bir görüşme yapabildiğini ve istediğiniz yeri sizin yerinize arayıp rezervasyon vs. yapabileceğini bize göstermişti.
Bunun yanında Deepmind’ın kendi kendine yürümeyi öğrenen algoritmasını, satranç, go gibi binlerce yıllık tarihi olan oyunları ve Starcraft gibi inanılmaz karmaşık oyunları çok kısa sürede öğrenip oynayabilen algoritmaları konuşmuştuk.
Google asistanları gibi dijital asistanlar, e-posta filtreleme, arama, dolandırıcılığı önleme, ses ve yüz tanıma ve içerik sınıflandırma gibi çok farklı alanlarda da zaten yoğun şekilde kullanılıyor biliyoruz.
Fakat Norman bize bahsettiğimiz tüm bu olasılıkların karanlık tarafını gösteriyor işte.
Çünkü internet her zaman “faydalı” bilgiler içeren bir mecra değil. Hatta sanırım faydalı ve zararsız içeriklerin sayısı maalesef diğer alternatiflere göre çok daha az kalıyor.
Tüm bunlara maruz kalabilecek bir algoritmanın da sonunda kötü bir “Yapay Zeka” olması haliyle kaçınılmaz olacaktır.
Ama Norman tek örnek değil. Bunun gibi “endişelenmemizi” gerektirecek birkaç hikaye daha yaşadık son yıllarda.
Örneğin geçen yıl mayıs ayında ABD Mahkemeleri risk değerlendirmesi ve analizi için yapay zeka algoritması kullanmaya karar veriyor. Ve ne oluyor biliyor musunuz? Bu Algoritma bir zaman sonra siyahi mahkumlara karşı “ön yargılı” olmaya başlıyor.
“Mahkumların tekrar suç işleme olasılığının” analiz edilmesi için kullanılan bu algoritma siyahi mahkumların beyazlara göre tekrar suç işleme olasılığının “iki kat” daha fazla olduğu sonucuna varıyor.
Bu mümkün olabilir diye düşünebilirsiniz. Ancak hiçbir araştırma bunu desteklemiyor. Peki yapay zeka bu sonuca nasıl varıyor peki?
Yine Veri yani DATA problemi karşımıza çıkıyor burada.
Çünkü yapay zekanın okuduğu raporlar, incelediği mahkeme kayıtları, tamamını yazan insandı ve asıl önyargılı olan burada “insandı”. Burada önyargılı olan Yapay Zeka değil kendisine sağlanan verilerdi yani.
Başka bir örnek de TAY. Microsoft’un ünlü twitter chat botu.
Hatırlayanlarınız vardır belki de.
2016 yılında Microsoft’un yapay zeka algoritmasını dünyaya tanıtmak için kullandığı bir yol olan bu “bot” maalesef çok acayip bir hal alıyor sonunda.
İnsanların bahsetmeleri ve mesajlarına açık olan bu Bot, elbette bu fırsatı geri çevirmeyen onbinlerce Troll’ün mesaj ve tweet yağmuruna tutuluyor.
Beyaz ırk üstünlüğünü savunmasını söyleyenler, soykırımın iyi bir şey olduğunu anlatanlar, Hitler’i sevmesini söyleyenlerin bombardımanı sonrasında iyi niyetli Tay çok kısa bir süre içinde soykırımı savunan, ırkçı, cinsiyetçi, neo-nazi bir algoritma olup çıkıyor ve Microsoft bu botun fişini hemen çekiyor.
Birkaç gün daha açık bırakılsaydı nereye evrileceğini tahmin bile edemiyor insan.
TAY de “yanlış verilerle bir yapay zekanın ne kadar kısa sürede ne kadar korkunç bir hal alabileceğini gösteren örneklerden” biri.
Ve Yapay Zeka’nın tek suçu da bu değil bu arada.
Son örneğimiz de başka bir çalışmadan.
Bath Üniversitesi bilgisayar bilimleri bölümünden Dr. Joanna Bryson Google Haberler’de bulunan içeriklerle bir algoritmayı eğitmeye karar veriyor.
Ve bu algoritma, çok masum olarak düşündüğümüz bu genel haber içeriklerinden yola çıkarak bildiğiniz cinsiyetçi önyargılara sahip bir algoritma olup çıkıyor.
Örneğin şöyle bir cümle veriyorlar algoritmaya ve boşluğu doldurmasını istiyorlar:
“Erkekler bilgisayar programcısıysa kadınlar __________” nedir?
Algoritma hiç düşünmeden cevap veriyor:
“Erkekler bilgisayar programcısıysa kadınlar EV HANIMIDIR”.
Bunun üzerine Joanna Bryson şunları söylüyor:
“Bu algoritmanın bu kadar cinsiyetçi olmasının nedeni belki de bir çoğunun Kaliforniya’da yaşayan bekar ve beyaz erkekler tarafından eğitiliyor olmalarıdır. Makineleri kendi kültürümüze göre eğittiğimizde haliyle önyargılarımızı da öğretiyoruz onlara”
Tüm bu örneklerin önümüzdeki günlerde çoğalması kaçınılmaz. Daha çok cinsiyetçi, ırkçı, önyargılı “algoritmalar” göreceğiz bundan şüphe yok.
Burada elbette algoritmayı, makineleri suçlamanın da bir anlamı yok. Çünkü temelde matematikten bahsediyoruz ve matematikte “adil” olmanın formülü yok. Bir algoritmaya veri sağladığınızda o size bulduğu “tekrar eden” bağlantıları çıkarır. Yani ne verirseniz onu alırsınız.
Asıl can sıkıcı olan nokta ise bu örneklerden bazılarında olduğu gibi “istemsiz” şekilde ortaya çıkan yanlış eğilimleri düzeltebilirsiniz. Daha dikkatli dil kullanır, daha önyargısız veriler sağlayabilirsiniz ama art niyetli çalışmaları, yani bu algoritmaları bilerek ve isteyerek “yanlış besleyen” kişi veya kurumlar olabilir.
Bu noktada aslında belki de gelecekte çok sık bahsini edeceğimiz bir “iş alanı” karşımıza çıkıyor.
Yapay Zeka Psikologluğu.
Piyasaya sürülecek ya da kullanıma alınacak yapay zeka öncesinde bir uzman psikolog tarafından teste tabi tutularak bir psikopat olup olmadığı öğrenilebilir.
Yapay Zeka Psikologları mı? Çok bilim kurgu gibi geldi değil mi? Ama öyle değil.
Çünkü Norman çalışmasını yürüten Profesör Rahwan da şöyle söylüyor
“Makine davranışlarını da insan davranışları gibi inceleyebileceğinize dair inanış gittikçe artıyor.”
Ben de tüm makine öğrenmesi, yapay zeka örneklerinde bunu düşünüyordum sürekli.
Norman örneği de tam olarak düşüncelerimi doğrulamış oldu aslında.
Çok benzer değil mi? Şiddet görenin şiddet eğilimi, sevgi görenin sevgiden başka bir şey bilmemesi gibi. Empati. Bunu da konuşmuştuk Ayna Nöronlar mevzusunda. Ayrıca göz atabilirsiniz.
Yani burada da durup düşünmemiz gereken bir mevzu, ciddi bir mevzu var.
En büyük korkumuz malum bu “yapay zeka” dünyayı ele geçirir mi konusu.
Burada korktuğumuz yapay zeka, makineler, robotlar değil aslında.
Neden korkuyoruz biliyor musunuz?
Aslında kendimizden korkuyoruz…
Makinelerin öğreneceği her şeyi biz ortaya çıkardık. Tüm kötülükler, tüm önyargılar… Açgözlülük, güç hırsı, ırkçılık, cinsiyetçilik ve çok daha fazlası.
Hepsi bizim eserimiz.
Ve işte makineler tüm bunları öğrenir diye korkuyoruz.
O yüzden yapay zekayı geliştirmeye biraz ara verip kendimize çeki düzen vermemiz gerekiyor sanırım her şeyden önce…
Bitirmeden Instagram sayfamıza henüz katılmadıysanız orada da neredeyse her gün güzel haberler, duyurular, fotoğraflar paylaşmaya çalışıyorum. Herkesi beklerim.
Ve Patreon’dan da desteklerinizi bekliyorum. Ancak sizin desteklerinizle bu kanalı çok daha ileriye taşıyabiliriz. Şimdiden çok teşekkürler.
Instagram hesabı ve Patreon linkini açıklamaya ekliyorum.
Ve her zaman olduğu gibi.
İyi ki varsınız!
Sevgiler…
Kaynaklar:
Are you scared yet? Meet Norman, the psychopathic AI – BBC News