21. Yüzyıl İçin 21 Ders : 3 Özgürlük


Liberal anlatı insanların özgürlüğünü başat değeri kabul eder ve yüceltir. En nihayetinde otoritenin bireylerin duyguları, arzuları ve seçimlerine yansıyan özgür insan iradesinden kaynaklandığı savunulur. Siyasette liberalizm en iyisini seçmenlerin bildiğine inanır. Bu yüzden de demokratik seçimler düzenler. Ekonomide liberalizm müşterinin her zaman haklı olduğunu iddia eder. Bu yüzden de serbest piyasa kurallarını uygular. Kişisel meselelerde liberalizm insanları, başkalarının özgürlüklerini çiğnememek şartıyla, kendilerini ve yüreklerinin sesini dinlemeye ve fikirlerine sadık kalmaya teşvik eder. Bu bireysel özgürlük insan haklarıyla teminat altına alınmıştır. 

Günümüz Batı siyasi söyleminde "liberal" kelimesi kimi zaman çok daha dar, tarafgir bir anlamda, eşcinsel evliliği, silahların kısıtlanması ve kürtaj gibi belli başlı davaları destekleyenleri belirtmek için kullanılıyor. Fakat çoğu sözde muhafazakar da geniş anlamıyla liberal dünya görüşünü benimsiyor. Özellikle ABD' de hem Cumhuriyetçilerin hem de Demokratların ateşli tartışmalarına nadiren ara verip serbest seçimler, bağımsız yargı ve insan hakları gibi temel konularda anlaştıklarını kendilerine hatırlatmaları gerek. 


Ronald Reagan ve Margaret Thatcher gibi sağcı kahramanların sadece ekonomik özgürlükleri değil bireysel özgürlükleri de desteklediğini hatırlamak bilhassa önemli. 1987' de yapılmış meşhur bir röportajda Thatcher, "Toplum diye bir şey yok. Erkek ve kadınların oluşturduğu canlı bir doku var ( ... ) ve yaşam kalitemiz, her birimizin kendi sorumluluğunu almaya ne kadar hazır olduğuna bağlı," demişti.1 Thatcher'ın Muhafazakar Parti'deki varisleri siyasi otoritenin seçmen bireylerin duygu, tercih ve özgür iradelerine bağlı olduğu konusunda İşçi Partisi'yle görüş birliği içindedir. Bu yüzden Birleşik Krallık'ın Avrupa Birliği'nden ayrılıp ayrılmaması sözkonusu olduğunda Başbakan David Cameron konuyu Kraliçe II. Elizabeth 'e, Canterbury Başpiskoposu'na ya da Oxford ve Cambridge hocalarına danışmadı. Parlamento üyelerine bile danışmadı. Onun yerine her bir İngiliz vatandaşına, "Bu konuda ne hissediyorsunuz?" diye sorulan bir referandum düzenledi. 

1. Margaret Thatcher, "lnterview for Woman's Own ('no such thing as society')", Margaret Thatcher Foundation, 23 Eylül 1987, 7 Ocak 2018' de erişildi

"Ne düşünüyorsunuz?" yerine, "Ne hissediyorsunuz?" diye sorulmuş olmasına itiraz edebilirsiniz ama böyle bir yaklaşım genel bir yanılsamaya düşmek olur. Referandum ve seçimler her zaman insanların duygularıyla ilişkilidir, mantıklarıyla değil. Demokrasi mantıklı tercihler yapmaya ilişkin bir mesele olsaydı, herkese eşit oy hakkı tanımanın hatta belki de herhangi bir oy hakkı tanımanın hiçbir mantıklı gerekçesi olmazdı. Bazı insanların diğerlerinden, bilhassa da belli ekonomik ve siyasi sorular sözkonusuysa daha bilgili ve mantıklı oldukları yönünde bolca delil var. 2 Brexit referandumunun ardından ünlü biyolog Richard Dawkins, İngiliz halkının, kendisi de dahil, büyük bir kısmından böyle bir referandumda oy kullanmasını istemenin yanlış olduğunu çünkü gerekli ekonomi ve siyaset bilimi altyapısına sahip olmadıklarını ifade etmişti. "Einstein'ın cebir hesaplamalarının doğruluğuna halk oylamasıyla karar vermekten ya da pilotun hangi piste ineceğini yolcuların oyuna bırakmaktan farksız bir şey."3

2. Keith Stanovich, Who Is Rational? Studies of Individual Differences in Reasoning (New York: Psychology Press, 1999). 
3. Richard Dawkins, "Richard Dawkins: We Need a New Party - the European Party'', NewStatesman, 29 Mart 2017, 1 Mart 2018' de erişildi

Fakat öyle ya da böyle seçim ve referandumlar ne düşündüğümüzle değil nasıl hissettiğimizle alakalıdır. Ve iş hislere gelince Einstein ve Dawkins'in hiç kimseden farkı yoktur. Demokrasiye göre insan duyguları gizemli ve derin bir kavram olan "özgür iradeyi" yansıtır, bu "özgür irade" otoritenin temel kaynağıdır ve kimi insanlar diğerlerinden daha akıllı olsalar da tüm insanlar eşit derecede özgürdür. Okuma yazma bilmeyen bir hizmetçinin de Einstein ve Dawkins kadar özgür iradesi vardır. Seçim günü geldiğinde de verdiği oya yansıyan hisleri herkesinki kadar geçerlidir. 

Duygular sadece seçmenleri değil liderleri de yönlendiriyor. 2016' da düzenlenen Brexit referandumunda ayrılma taraftarı kampanyanın başında Boris Johnson'la Michael Gove bulunuyordu. David Cameron istifa ettikten sonra Gove başbakanlık görevi için önce Johnson'ı desteklerken, son dakikada Johnson'ın bu göreve uygun olmadığını beyan edip kendi adaylığını koyma niyetini açıkladı. Gove'un Johnson'ın şansını yok eden bu davranışı Machiavellivari bir siyasi suikast şeklinde tanımlandı.4 Bunun karşısında Gove duygularından dem vurarak, "Siyasi hayatımın her aşamasında kendime tek bir soru sormuşumdur: 'Doğrusu nedir? Yüreğin ne diyor?'" sözleriyle kendi tutumunu savundu.5 Gove'a göre Brexit için canını dişine takmasının, vaktiyle müttefiki olan Boris Johnson'ı arkadan bıçaklamaya mecbur hissetmesinin ve liderlik koltuğuna kendini aday göstermesinin sebebi hep buydu; yüreğinin sesini dinlemişti. 

Yüreğinin sesini dinlemek liberal demokrasinin zayıf noktası olmaya namzet. Zira Pekin ya da San Francisco' da biri çıkar da insan yüreğine erişip onu yönlendirebilecek teknolojiyi geliştirirse, demokratik siyaset duyguların oynatıldığı bir kukla gösterisine dönüşebilir. 

4. Steven Swinford, "Boris Johnson's allies accuse Michael Gove of 'systematic and calculated plot' to destroy his leadership hopes", Telegraph, 30 Haziran 2016,  3 Eylül 2017'de erişildi; Rowena Mason ve Heather Stewart, "Gove's thunderbolt and Boris's breaking point: a shocking Tory morning", Guardian, 30 Haziran 2016, , 3 Eylül 2017' de erişildi. 
5. James Tapsfield, "Gove presents himself as the integrity candidate for Downing Street job but sticks the knife into Boris AGAIN", Daily Mail, 1 Temmuz 2016, , 3 Eylül 2017' de erişildi. 


Algoritmanın sesini dinle 

Bireylerin duyguları ve özgür seçimlerine duyulan liberal inanç ne doğaldır ne de eskilere dayanır. İnsanlar binlerce yıl boyunca otoritenin insan yüreğinden değil kutsal kanunlardan geldiğine ve dolayısıyla insanın özgürlüğünü değil Tanrı kelamını kutsamamız gerektiğine inandı. Otoritenin kaynağı sadece birkaç yüzyıl önce semai tanrılardan çıkıp etten ve kemikten insanlara aktarıldı. 

Kısa bir süre sonra otorite yeniden, bu defa insanlardan algoritmalara kayabilir. Nasıl ki kutsal otorite dini mitolojiler, insan otoritesi de liberal anlatı aracılığıyla meşrulaştırıldı, gelecek teknolojik devrim de büyük veri algoritmalarının otoritesini meşrulaştırıp bir yandan da bireysel özgürlük kavramının temellerini çürütebilir. 

Önceki bölümde de belirttiğimiz üzere beyin ve bedenlerimizin işleyişini inceleyen bilimsel çalışmalar duygularımızın insanlara has ruhani bir özellik olmadığını ve herhangi bir "özgür irade" teşkil etmediklerini öne sürüyor. Aksine duygular tüm memelilerin ve kuşların hayatta kalmak ve üremek için hızlı hesaplar yapabilmesini sağlayan biyokimyasal mekanizmalar. Duygular sezgiden, esinden ya da özgürlükten değil hesaplamalardan kaynaklanıyor. 

Bir maymun, fare ya da insan, karşısında yılan görünce korku duyar çünkü beyindeki milyonlarca nöron çarçabuk gerekli verileri hesaba katıp ölüm riskinin yüksek olduğu sonucuna varır. Cinsel çekim farklı biyokimyasal algoritmalar civardaki şahsın başarılı eşleşme, toplumsal bağ kurma ya da istenen başka bir amacın gerçekleşmesi için yüksek ihtimalle uygun olduğunu hesapladığında ortaya çıkar. Öfke, suçluluk ya da bağışlama gibi ahlaki duygular da grupiçi işbirliğini sağlamak için evrimleşmiş sinirsel mekanizmalardan kaynaklanır. Tüm bu biyokimyasal algoritmalar milyarlarca yıllık evrim sürecinde yontulmuş. Çok eski atalarımızdan birinin duyguları hatalıysa, bu duyguyu şekillendiren genler bir sonraki nesle aktarılmamış. Dolayısıyla duygular mantıkla ters düşmez; evrimsel bir mantık barındırır. 

Genellikle duyguların birer hesaplama ürününden ibaret olduğunu fark edemeyiz çünkü bu seri hesap işlemi farkındalık eşiğimizin çok altında bir yerde cereyan eder. Beyindeki hayatta kalma ve üreme olasılığını işleyen milyonlarca nöronu hissedemediğimizden yılanlardan korkmamızın, cinsel eş tercihimizin ya da Avrupa Birliği hakkındaki fikirlerimizin esrarengiz bir "özgür irade" sebebiyle ortaya çıktığı yanılsamasına düşüyoruz. 

Yine de liberalizm, duygularımızın özgür irademizi yansıttığını düşünmekte yanılıyor olsa da bugüne kadar duygularımıza göre hareket etmek uygulamada işe yarar bir yöntemdi. Çünkü duyguların sihirli ya da hür bir yanı bulunmasa da ne okuyacağımız, kiminle evleneceğimiz ve hangi partiye oy vereceğimiz hakkında karar vermek için kainattaki en iyi yöntem buydu. Ve duygularımı benden daha iyi anlayabilecek hiçbir harici sistem yoktu. İspanyol Engizisyonu ya da KGB'nin gözü her gün her dakika üzerimde olsa bile bu kurumlar arzu ve seçimlerimi şekillendiren biyokimyasal süreci ele geçirmek için gerekli biyolojik bilgi ve bilgiişlem kapasitesinden yoksundu. Özgür iradem olduğunu iddia etmek her açıdan mantıklıydı çünkü iradem büyük ölçüde dahili unsurların etkileşimiyle şekilleniyor ve bunları dışardan bakan hiç kimse göremiyordu. Yabancılar içimde neler olup bittiğini ve nasıl karar aldığımı hiçbir şekilde anlayamazken gizli dahili alanımı kontrol ettiğim yanılsaması içinde yaşamayı sürdürebilirdim. 

Bununla bağlantılı olarak liberalizm insanları, parti mensubu bir aparatçik'i' ya da rahibin birini değil de yüreklerinin sesini dinlemeye yönlendirerek doğruyu yapmış oldu. Öte yandan kısa bir zaman sonra bilgisayar algoritmaları insan duygularından daha iyi bir rehber haline gelebilir. İspanyol Engizisyonu ve KGB yerini Google ve Baidu şirketlerine bırakırken "özgür iradenin" bir mit olduğunun ifşa edilmesi ve liberalizmin pratik avantajlarını kaybetmesi mümkün. 

Ne de olsa artık iki muazzam devrimin eşiğindeyiz. Bir yandan biyologlar insan bedeninin ve bilhassa da beyinle insan duygularının gizemini deşifre ederken, öte yandan bilgisayar bilimiyle uğraşanlar bize eşi benzeri görülmemiş bir veri işleme gücü sağlıyor. Biyoteknoloji devrimi, bilişim teknolojileri devrimiyle birleştiğinde duygularımı gözlemleyip benden daha iyi anlayabilecek büyük veri algoritmaları ortaya çıkacak ve büyük ihtimalle otorite de insanlardan bilgisayarlara geçecek. Özgür iradeye sahip olduğum yanılsaması önceden erişilemez iç dünyamı anlayıp yönlendiren kurum, kuruluş ve devlet kurumlarıyla karşılaştıkça dağılıp gidecektir herhalde. 

Tüm bunlar tıp alanında şimdiden gerçekleşiyor aslında. Hayatımızın en önemli tıbbi kararları, hasta ya da iyi olduğumuzu hissetmemize ve hatta bilgi sahibi doktorlarımızın tahminlerine göre değil, bedenlerimizi bizden çok daha iyi anlayan bilgisayarların hesaplamalarına dayanarak veriliyor. Durmadan biyometrik verilerle beslenen büyük veri algoritmaları önümüzdeki yıllarda sağlığımızı 7/24 gözlemleyebilir. Bir gribin, kanserin ya da Alzheimer hastalığının başladığını, biz bir sorunumuz olduğunu fark etmeden çok daha önce tespit edebilirler. Bunun akabinde fiziksel yapımıza, DNA ve kişiliğimize göre özel olarak tasarlanmış tedavi, diyet ya da günlük rejim önerilerinde bulunabilirler. 

İnsanlar tarihteki en iyi sağlık hizmetini alacaklar ama muhtemelen tam da bu nedenle sürekli hasta olacaklar. Bedenin bir yerinde her daim bir sorun vardır. Her zaman ıslah edilebilecek bir şeyler bulunur. Geçmişte acı ya da topallama gibi bariz bir sakatlık hissetmediğiniz müddetçe kendinizi gayet sağlıklı kabul ederdiniz. Ama 2050'ye gelindiğinde biyometrik sensörler ve büyük veri algoritmaları sayesinde hastalıkların acıya veya sakatlığa yol açmasına fırsat vermeden teşhis ve tedavisi yapılabilecek. Bunun sonucunda kendinizi her daim bir "sağlık durumu"yla uğraşır ve şu veya bu algoritma önerisini uygularken bulacaksınız. Böyle yapmayı reddederseniz belki sağlık sigortanız iptal olacak, belki patronunuz sizi işten atacak; sizin dik başlılığınızın cezasını niye onlar ödesin? 

Sigara içmenin akciğer kanserine yol açtığına ilişkin genel istatistiklere rağmen sigara içmeye devam etmek başka, sol akciğerinizin üst kısmında on yedi kanserli hücre tespit eden biyometrik sensörün verdiği uyarıya rağmen sigara içmeye devam etmek bambaşka bir şey. Ve sensörü dikkate almazsanız, sensör uyarıyı sağlık ajansınıza, müdürünüze ve annenize ilettiğinde ne yapacaksınız? 

Tüm bu hastalıklarla uğraşmaya kimin vakti ve enerjisi yeter? Büyük ihtimalle sağlık algoritmamıza bu sorunların çoğuyla nasıl biliyorsa o şekilde başa çıkması komutu verebiliriz. En fazla, akıllı telefonlarımıza düzenli olarak güncelleme yollayıp bize, "On yedi kanserli hücre tespit edilerek yok edildi," der. Hastalık hastaları bu güncellemeleri görev bilinciyle okur ama çoğumuz bilgisayarlarımızdaki sinir bozucu virüs uyarılarını dikkate almadığımız gibi bunları da umursamayız. 

Karar alma tiyatrosu 

Tıp alanında halihazırda kaydedilen gelişmelerin gitgide çok daha farklı alanlarda görülmesi kuvvetle muhtemel. En temel buluş, insanların Üzerlerine ya da bedenlerinin içine takılabilen ve biyolojik süreçleri bilgisayarların depolayıp analiz edebileceği elektronik bilgiye dönüştüren biyometrik sensörler. Yeterli biyometrik veri ve yeterli bilgi"işlerin gücü olursa, dahili veri işleme sistemleri tüm arzularınızı, karar ve fikirlerinizi ele geçirebilir. Tamı tamına kim olduğunuzu anlayabilirler. Çoğu insan kendini pek tanımaz. Ben yirmi bir yaşındayken, yıllar süren inkar döneminin ardından eşcinsel olduğumun nihayet farkına vardım. Bu hiç de istisnai bir durum değildir. 

Çoğu eşcinsel erkek ergenlik yıllarını cinsel eğilimlerinden şüphe duyarak geçiriyor. Şimdi, 2050' de bir algoritmanın herhangi bir ergene kendisinin homoseksüel/heteroseksüel yelpazesinde tam olarak nereye tekabül ettiğini (ve hatta bu konumun ne denli her yöne çekilebilir olduğunu) söyleyebileceğini düşünün. Belki algoritma size çekici kadın ve erkeklerin bulunduğu resim ve videolar gösterip göz hareketlerinizi, tansiyonunuzu ve beyin faali yetinizi ölçer ve beş dakika içinde Kinsey skalasında bir sayı çıkarır.6 Böyle bir şey olsaydı ben onca yıl gerilim yaşamazdım. Belki kendi kendinize böyle bir test yapmak istemezsiniz ama diyelim ki Melis'in sıkıcı doğum günü partisinde bir grup arkadaş arasında buluyorsunuz kendinizi ve biri çıkıp herkesin sırayla bu süper yeni algoritmayı denemesini öneriyor (ve herkes sonuçlara bakıp bir de yorum yapıyor). 

6. 2017' de bir Stanford takımı homoseksüel olup olmadığınızı sadece birtakım fotoğraflarınızı analiz ederek yüzde 91 kesinlikle belirlediği iddia edilen bir algoritma geliştirdi. (.) Ancak algoritma insanların eş bulma sitelerine kendi yükledikleri fotoğraflar esas alınarak oluşturulduğu için aslında kültürel ideallerin farklılığını tespit ediyor olabilir. Homoseksüel insanların suratlarının heteroseksüellerinkinden farklı olduğu söylenemez. Ama homoseksüel eş bulma sitelerine fotoğraf yükleyen homoseksüel erkekler heteroseksüel eş bulma sitelerine fotoğraf yükleyen heteroseksüel erkeklerden farklı kültürel ideallere uygun görünmeye çalışıyorlar. 

Çekip gider misiniz? Çekip gitseniz, hatta kendinizden ve sınıf arkadaşlarınızdan saklanmaya devam etseniz de Amazon' dan, Alibaba' dan ya da gizli polisten saklanamazsınız. İnternette gezerken, Youtube'dan bir şey izleyip sosyal medyada paylaşılanları okurken algoritmalar gizliden gizliye sizi gözetler, analiz eder ve size gazlı içecekler satmak isteyen Coca-Cola'ya üstü çıplak kızların rol aldığı reklamlarını değil üstü çıplak oğlanların rol aldığı reklamlarını kullanmasının daha iyi olacağını söyler. Sizin haberiniz bile olmaz. Ama onların olur ve bu bilgi milyon değerindedir. 

Ama belki her şey apaçık ortada yaşanır ve insanlar daha iyi tavsiyeler alabilmek ve algoritmanın nihayetinde kendileri adına karar alabilmesini sağlamak için bilgilerini memnuniyetle paylaşırlar. Bu tarz şeyler hangi filmi izleyeceğinize karar vermek gibi basit işlerle başlar. Bir grup arkadaşla keyifli bir gece geçirmek için ekran başına geçtiğinizde, önce hangi filmi izleyeceğinize karar vermeniz gerekir. Elli yıl önce bir seçeneğiniz yoktu ama günümüzde istediğinizi seçip izleyebildiğiniz kanalların yaygınlaşmasıyla binlerce film seçeneğiniz var. Ortak bir karara varmak zor olabilir çünkü siz bilimkurgu ve gerilim filmlerini seviyorken, Arda romantik komedileri tercih ediyor, Ceyda da oyunu sanatsal Fransız filmlerinden yana kullanıyor olabilir. Sonuçta herkesi hayal kırıklığına uğratacak ikinci sınıf vasat bir film izlemeye razı olabilirsiniz. 

Algoritmanın bu konuda yararı dokunabilir. Herkes önceden izleyip gerçekten beğendiği filmleri söyler ve algoritma devasa istatiksel veritabanını baz alarak grup için en uygun filmi bulabilir. Maalesef insanların kendileri hakkındaki beyanları, bilindiği üzere, gerçek tercihlerini anlamak için son derece güvenilmez bir ölçüt olduğundan, böylesine üstünkörü bir algoritma kolayca yanlış yönlendirilebilir. Sık sık bir sürü insanın bir filmi şaheser diye övdüğünü duyar, kendimizi filmi izlemeye mecbur hisseder ve yarısında uyuyakalsak da kültürsüz görünmek istemediğimizden herkese ne kadar muhteşem olduğunu söyleriz.

7. David Chan, "So Why Ask Me? Are Self-Report Data Really That Bad?", Charles E. Lance ve Robert J. Vandenberg (eds.), Statistical and Methodological Myths and Urban Legends (New York, Londra: Routledge, 2009) içinde, s. 309-36; Delroy L. Paulhus ve Simine Vazire, "The Self-Report Method", Richard W, Robins, R. Chris Farley ve Robert F. Krueger (eds.), Handbook of Research Methods in Personality Psychology (Londra, New York: The Guilford Press, 2007) içinde, s. 228-33. 

Oysa bu tür sorunlar, algoritmanın şaibeli beyanlarımıza maruz kalması yerine biz filmleri izlerken gerçek zamanlı veri toplanmasına izin verdiğimiz takdirde çözülecektir. Öncelikle, algoritma hangi filmlerin tamamını izledik, hangilerini yarıda bıraktık gözlemleyebilir. Tüm dünyaya Rüzgar gibi Geçti çekilmiş en iyi filmdir desek de algoritma esasen filmin ilk saatini çıkaramadığımızı ve Atlanta'nın yandığını falan görmediğimizi bilir. 

Ama algoritma bundan çok daha ileriye de gidebilir. Mühendisler insanların duygularını göz hareketlerine ve yüz kaslarına bakarak tespit edebilen bir yazılım geliştiriyor şu sıralar.8 Televizyona iyi bir kamera eklememiz durumunda algoritma hangi sahnelere güldüğümüzü, hangi sahnelerde üzüldüğümüzü ve hangi sahnelerde sıkıldığımızı anlayabilir. Sonra algoritma biyometrik sensörlere bağlanırsa her bir karenin kalp atışımızı, tansiyonumuzu ve beyin faaliyetimizi nasıl etkilediğini anlayabilir. Mesela Tarantino'nun Pulp Fiction filmini izliyoruz diyelim; algoritma tecavüz sahnesinde neredeyse fark edilemeyecek kadar az tahrik olduğumuzu, Vincent Markin'i kazara vurduğunda suçlu suçlu sırıttığımızı ve Big Kahuna Burger esprisini anlamasak da salak görünmemek için güldüğümüzü kaydedebilir. Kendimizi gülmeye zorladığımızda, gerçekten komik olduğunu düşündüğümüz bir şeye gülerken kullandığımızdan farklı beyin devreleri kullanıyoruz. İnsanlar aradaki farkı çoğunlukla anlamıyor. Ama biyometrik bir sensör anlayabilir.

8. Elizabeth Dwoskin ve Evelyn M. Rusli, "The Technology that Unmasks Your Hidden Emotions", Wall Street fournal, 28 Ocak 2015, , 6 Eylül 2017' de erişildi. 
9. Norberto Andrade, "Computers Are Getting Better Than Humans at Facial Recognition'', Atlantic, 9 Haziran 2014, 10 Aralık 2017'de erişildi; Elizabeth Dwoskin ve Evelun M. Rusli, "The Technology That Unmasks Your Hidden Emotions", Wall Street fournal, 28 Haziran 2015, , 10 Aralık 2017' de erişildi; Sophie K. Scott, Nadine Lavan, Sinead Chen ve Carolyn McGettigan, ''The Social Life ofLaughter", Trends in Cognitive Sciences 18:12 (2014), s. 618-20.

Televizyon kelimesi Yunancada "uzak" anlamına gelen "tele" kelimesiyle Latincede görmek anlamına gelen "visio" kelimelerinden geliyor. Aslen bir şeyi uzaktan görmemize yarayan bir alet olarak düşünülmüş. Ama bir süre sonra uzaktan görülmemizi de sağlayabilir. George Orwell'in Bin Dokuz Yüz Seksen Dört kitabında öngördüğü gibi biz televizyon izlerken. televizyon da bizi izleyecek. Tarantino'nun bütün filmlerini izledikten sonra çoğu aklımızdan çıkıp gidebilir. Ama Netflix, Amazon ya da televizyon algoritmasının sahibi her kimse, o kişi bizim kişilik tipimizi ve ruhumuzun tellerine nasıl dokunacağını bilecek. Böyle bir veri Netflix ve Amazon'un tüyler ürpertici bir doğrulukla bize en uygun filmleri seçmesine yarayabileceği gibi ne okuyacağımız, nerede çalışacağımız ve kiminle evleneceğimiz gibi hayatımızın önemli kararlarını da bizim adımıza almalarını sağlayabilir. 

Elbette Amazon her daim doğru isabet ettiremeyecek. Bu imkansız. Algoritmalar yetersiz veri, hatalı programlama, bulanık hedef tanımlamaları ve hayatın kaotik doğası gibi sebeplerle tekrar tekrar hata yapabilir.10 Ama Amazon'un mükemmel olması şart değil. Biz insanların ortalamasından daha iyi olması yeter. Ve bu da çok zor değil çünkü pek çok insan hayatlarının en önemli kararlarını verirken sıklıkla korkunç hatalar yapıyor. İnsanlar yetersiz verinin, hatalı programlanmanın (genetik ve kültürel), bulanık hedef tanımlarının ve hayatın kaotik doğasının cefasını algoritmalardan daha çok çekiyor. 

10. Daniel First, "Will big data algorithms dismantle the foundations of liberalism?'', AI & Soc.

Algoritmaları kuşatan sorunları bir bir sıralayıp insanların asla algoritmalara güvenmeyeceği sonucuna varabilirsiniz. Fakat bu bir nebze, demokrasinin eksikliklerini listeleyip aklı başında hiç kimsenin böyle bir sistemi desteklemeyeceği sonucuna varmaya benzer. Winston Churchill'in meşhur bir sözü var: Demokrasi, diğer tüm sistemleri saymazsak, dünyanın en kötü siyasi sistemidir. İnsanlar, doğru ya da yanlış, büyük veri algoritmaları konusunda da aynı sonuca varabilir, birçok aksaklıkları var ama daha iyi bir seçeneğimiz yok diyebilirler. 

Biliminsanları insanların nasıl karar aldığına dair daha derin bir anlayış edindikçe algoritmalara itimat etmek daha cazip gelmeye başlayabilir. İnsanların karar alma süreçlerine erişim büyük veri algoritmalarını daha güvenilir kılmakla kalmayacak, eş zamanlı olarak insan duygularını da daha az güvenilir yapacak. Devletler ve şirketler insanların işletim sistemine erişim sağlayınca yönlendirme, reklam ve propagandadan oluşan hassas güdümlü bir bombardımana tutulacağız. Fikir ve duygularımızın bu kadar kolayca yönlendirilebilmesi karşısında, vertigo atağı geçiren bir pilotun kendi duyularının kılavuzluğunu bir kenara bırakıp tamamen uçağın aksamlarına güvenerek yol alması gibi, sırtımızı algoritmalara dayamak zorunda kalacağız. 

Bazı ülkelerde ve bazı durumlarda, insanlara bir seçenek tanınmayıp büyük veri algoritmalarının kararlarına uyma zorunluluğu getirilebilir. Ancak algoritmalar özgür oldukları ileri sürülen toplumlarda bile otorite kazanabilir çünkü çok çeşitli konularda onları dikkate almayı deneyimlerimiz sonucu öğrenip sonunda yavaş yavaş kendi adımıza karar verme yetimizi kaybedebiliriz. Milyarlarca insanın yirmi yıl kadar kısa bir süre içinde, tüm zamanların en önemli görevlerinden biri olan güncel ve güvenilir bilgi arama konusunda nasıl da Google'ın arama motoruna güvenir hale geldiğini düşünün. Artık bilgiyi aramıyoruz; Google'lıyoruz. Ve cevaplar için Google'a gitgide daha çok bel bağladığımızdan kendi kendimize bilgi edinme yetimiz azalıyor. "Hakikat" şimdiden, Google aramalarında en üstte çıkan sonuçlarla belirleniyor.11 

11. Carole Cadwalladr, "Google, Democracy and the Truth about lnternet Search'', Guardian, 4 Aralık 2016, 6 Eylül 2017' de erişildi. 

Aynı şey yol almak gibi fiziksel beceriler için de geçerli. İnsanlar Google' dan rotalarını çizmesini istiyor. Bir kavşağa geldiklerinde iç sesleri "sola dön" dese de Google Maps "sağa dön" diyor. İlkin sola dönüyor ve trafiğe yakalanıp önemli bir toplantıyı kaçırınca bir sonraki sefer Google'ı dinleyip sağa dönerek gidecekleri yere zamanında varıyorlar. Google'a güvenmeyi tecrübe ederek öğreniyorlar. Bir iki sene geçince Google Maps'ın her dediğini körü körüne kabul ediyor ve akıllı telefonları çalışmadığında budala gibi ortada kalıyorlar. 

2012'nin Mart'ında Avustralya'ya giden iki Japon turist yakınlardaki bir adaya günübirlik gitmeye karar vermiş ve arabalarını dosdoğru Pasifik Okyanusu'na sürmüş. Yirmi bir yaşındaki sürücü Yuzu Noda sonrasında yaptığı açıklamada GPS'in komutlarını dinlediğini söylemiş: "Oradan gidebileceğimizi söyledi. Bizi yola çıkaracağını söyleyip durdu. Sonra çakılıp kaldık."12 Benzer kazalar arasında belli ki GPS talimatlarına uyarak arabalarını göllere sürenler ya da yıkılmış bir köprüye girip düşenler de var.13 Yol bulma yetisi kas gibidir, kullanmazsanız körelir.14 Aynı şey doğru eşi seçebilme ve meslek becerileri için de geçerlidir. 

12. Jeff Freak ve Shannon Holloway, "How Not to Get to Straddie'', Red Land City Bulletin, 15 Mart 2012, 1 Mart 2018' de erişildi. 
13. Michelle McQuigge, 'Woman Follows GPS; Ends Up in Ontario Lake', Toronto Sun, 13 Mayıs 2016, , 1 Mart 2018'de erişildi; "Woman Follows GPS into Lake'', News.com.au, 16 Mayıs 2016, 1 Mart 2018'de erişildi. 
14. Henry Grabar, "Navigation Apps Are Killing Our Sense of Direction. What if They Could Help Us Remember Places Instead?", Slate, 6 Eylül 2017'de erişildi. 

Her yıl milyonlarca gencin üniversitede ne okuyacağına karar vermesi gerekiyor. Bu son derece önemli ve çok zor bir karar. Her biri farklı menfaatler ve fikirler taşıyan anne babaların, arkadaşların ve öğretmenlerin baskısı altındasınız. Ayrıca başa çıkmanız gereken korkularınız ve hayalleriniz var. Kafanız Hollywood yapımı gişe filmleriyle, ucuz romanlarla ve alengirli reklam kampanyalarıyla karıştırılıyor. Farklı mesleklerde başarılı olmak için ne yapmak gerektiğini gerçekten bilmediğiniz, zayıf ve güçlü yanlarınız hakkında ille de gerçekçi bir imgeye sahip olmadığınız için akıllıca bir tercih yapmanız bilhassa zor. Nasıl başarılı bir avukat olunur? Baskı altında nasıl bir performans sergilerim? İyi bir takım oyuncusu muyum? 

Bir öğrenci kendi becerileri hakkında yanlış fikirlere kapıldığı ve avukatlığın esasen neler gerektirdiğine dair daha da çarpık bir görüşe sahip olduğu için hukuk fakültesine gidebiliyor (bütün gün çarpıcı konuşmalar yapıp "İtiraz ediyorum, Sayın Hakim!" diye bağırılmıyor). Bu esnada bir arkadaşı da gerekli kemik yapısına ya da disipline sahip olmadığı halde çocukluk hayalinin peşinden koşup profesyonel balerin olmaya karar veriyor. Yıllar sonra ikisi de tercihlerinden pişman. Gelecekte bu tarz tercihlerimizi Google'a bırakabiliriz. Google bana hukuk fakültesinde ya da bale okulunda vaktimi boşa harcayacağımı ama harika (ve çok mutlu) bir psikolog ya da tesisatçı olabileceğimi söyleyebilir.15 

15. Joel Delman, "Are Amazon, Netflix, Google Making Too Many Decisions For Us?", Forbes, 24 Kasım 2010, , 6 Eylül 2017'de erişildi; Cecilia Mazanec, "Will Algorithms Erode Our Decision-Making Skills?", NPR, 8 Şubat 2017, , 6 Eylül 2017' de erişildi. 

Yapay zeka kariyerlerimiz ve belki de ilişkilerimiz konusunda bizden daha iyi karar alabilir duruma geldiğinde, insanlık ve hayat hakkındaki fikirlerimizin değişmesi gerekecek. İnsanlar hayatı karar aşamalarından oluşan bir tiyatro oyunu şeklinde algılamaya alışık. Liberal demokrasi ve serbest piyasa kapitalizmi bireyleri sürekli dünya hakkında kararlar alan otonom özneler şeklinde görüyor. Shakespeare oyunları ya da Jane Austen romanlarından ucuz Hollywood komedilerine, sanat eserleri genellikle başkahramanın oldukça kritik bir karar almasını gerektiren durumlar etrafında şekillenir. Olmak ya da olmamak. Karımın sözünü dinleyip Kral Duncan'ın canını almak ya da vicdanımın sesini dinleyip hayatını bağışlamak. Mr. Collins'le ya da Mr. Darcy'le evlenmek. Hıristiyan ve İslam teolojileri de benzer bir karar alma tiyatrosu üzerine yoğunlaşır ve ebedi kurtuluşun ya da cehennem azabının doğru tercihi yapmaktan geçtiğini öne sürer. 

Biz kararlarımızı yapay zekaya bırakmaya başladıkça bu tarz bir hayat görüşüne ne olacak? Günümüzde film önerileri için Netflix'e, sağa mı sola mı döneceğimiz konusunda Google Maps'e güveniyoruz. Ama ne okuyacağımız, nerede çalışacağımız ve kiminle evleneceğimiz gibi konuları da yapay zekaya bırakırsak, insan hayatı karar aşamalarından oluşan bir tiyatro oyunu olmaktan çıkar. Demokratik seçimlerin ve serbest piyasanın bir anlamı kalmaz. Çoğu dinin ve sanat eserinin de. Düşünün ki Anna Karenina akıllı telefonunu çıkarıp Facebook algoritmasına, Karenin'le evliliğimi mi sürdürmeliyim yoksa yakışıklı Kont Vronski'ye mi kaçmalıyım diye soruyor. Yahut en sevdiğiniz Shakespeare oyununda tüm kritik kararların Google algoritması tarafından verildiğini düşünün. Hamlet ve Macbeth'in hayatları çok daha rahat olurdu ama bu nasıl bir hayat olurdu ki? Böyle bir hayatı anlamlandırmak için bir model var mı elimizde? 

Otorite insanlardan algoritmalara geçerse, dünyayı doğru kararlar almaya çalışan otonom bireylerin oyun alanı şeklinde algılayamayız artık. Onun yerine tüm evreni bir veri akışı, organizmaları birer biyometrik algoritma şeklinde duyumsar ve insanların kozmik misyonunun her şeyi kapsayan bir bilgiişlem sistemi yaratmak ve sonra da bu sistemle bütünleşmek olduğuna inanırız. Şimdiden, esasen kimsenin anlamadığı devasa bir bilgiişlem sisteminin içindeki minik çiplere dönüşüyoruz. Her gün elektronik postalar, tweetler ve çevrim içi makaleler aracılığıyla gelen sayısız veri parçacığına maruz kalıyor, bu verileri işliyor ve karşılığında yeni elektronik postalar, tweetler ve çevrimiçi makaleler yazarak geribildirimde bulunuyorum. Esasen büyük resmin neresine oturduğumu ya da benim ürettiğim veri parçacıklarının milyarlarca başka insan ve bilgisayarın ürettiği parçalarla nasıl bir bağlantı içinde bulunduğunu bilmiyorum. Öğrenmeye vaktim yok çünkü tüm bu elektronik postalara cevap vermekle meşgulüm. 

Felsefi araba 

İnsanlar algoritmaların asla bizim yerimize önemli kararlar alamayacağını çünkü önemli kararların etik bir boyutu olduğunu ve algoritmaların etikten anlamadığını iddia edebilirler. Lakin algoritmaların etik konusunda bile ortalama bir insanı aşamayacağını farz etmek için hiçbir sebep yok. Şimdi bile akıllı telefonlar ve otonom arabalar gibi araçlar eskiden insanların tekelinde bulunan karar alma işine soyunup insanların binlerce yıl boyunca yakasını kurtaramadığı etik sorunların benzerleriyle boğuşuyor. 

Diyelim ki top peşinde koşturan iki çocuk bir otonom arabanın önüne atlıyor. Arabanın algoritması şimşek hızıyla yaptığı hesaplamalar sonucunda bu iki çocuğa çarpmamanın tek yolunun ters şeride direksiyon kırıp yaklaşan kamyona çarpma riskini göze almak olduğu sonucuna varıyor. Algoritma çarpışma gerçekleşirse arkada mışıl mışıl uyuyan araç sahibinin ölme ihtimalinin yüzde 70 olduğunu hesaplıyor. Bu algoritmanın ne yapması gerekir?16

16. Jean-Francois Bonnefon, Azim Shariff ve Iyad Rawhan, "The Social Dilemma of Autonomous Vehicles", Science, 352:6293 (2016), s. 1573-76. 

Filozoflar binlerce yıldır bu tür "vagon problemleri" hakkında tartışıp dururlar (bunlara "vagon problemi" denilmesinin sebebi, ders kitaplarındaki çağdaş felsefi tartışmalar için örnekler verilirken otonom arabalara değil, tren raylarında hızla ilerleyen kontrolsüz bir lokomotife atıfta bulunulması).17 Şimdiye kadar bu tür tartışmaların fiili davranışlar üzerinde utanç verici derecede az etkisi oldu çünkü insanlar kriz anlarında felsefi görüşleri unutup duygu ve içgüdüleri doğrultusunda hareket etmeye meyillidir. 

17. Christopher W. Bauman vd., "Revisiting External Validity: Concerns about Trolley Problems and Other Sacrificial Dilemmas in Moral Psychology'', Social and Personality Psychology Compass 8:9 (2014), s. 536-54.  

Sosyal bilimler tarihinin en nahoş deneylerinden biri 1970'in Aralık ayında, Princeton İlahiyat Fakültesi'nde Presbiteryen Kilisesi'nde vaiz olmak için okuyan bir grup öğrenci üzerinde gerçekleştirilmişti: Öğrencilerin her birinden çabucak uzaktaki bir amfiye gidip İyi Samiriyeli meseli üzerine vaaz vermeleri istenir. Bu meselde anlatılan şudur: Kudüs'ten Eriha'ya giden bir Yahudi yolda eşkıyalar tarafından soyulup dövülür ve yolun kenarında ölmeye terk edilir. Bir süre sonra bir rahiple Levi kabilesinden birinin de yolu o tarafa düşer ama ikisi de adamı görmezden gelip geçip giderler. Sonra aynı yere bir Samiriyeli varır (Yahudilerin hiç hoşlanmadığı bir mezhebe mensup birisi) ama Samiriyeli, öncekilerin aksine, mağduru görünce durup yardım eder ve adamın hayatını kurtarır. Bu meselin kıssadan hissesi erdemin dini eğilimlere göre değil fiili davranışlara bakılarak değerlendirilmesi gerektiğidir.

Hevesli ilahiyat öğrencileri İyi Samiriyeli meselinden alınacak dersi en iyi nasıl anlatacaklarını düşünerek amfiye koştururlar. Ama deneyi yürütenler amfiye giden yolun üstüne gözleri kapalı vaziyette bir kapı eşiğine çökmüş üstü başı perişan birini yerleştirmişler. Bir şeyden haberi olmayan öğrenciler hızla geçip giderken "mağdur" aksırıp tıksırıp acınacak halde inliyormuş. Çoğu öğrenci bırakın yardım eli uzatmayı, durup neyin var diye bile sormamış. Bir an önce amfiye ulaşma gerekliliğinin Üzerlerinde yarattığı duygusal gerginlik, yardıma ihtiyacı olan bir yabancıya yardım etmek gibi bir ahlaki yükümlülüğün önüne geçmiş.18 

18. John M. Darley ve Daniel C. Batson, "'From Jerusalem to Jericho': A Study of Situational and Dispositional Variables in Helping Behavior'', journal of Personality and Social Psychology 27:1 (1973), s. ıoo-8. 

Pek çok başka durumda da insan duyguları felsefi teorilerin önüne geçer. Bu durum dünyanın ahlaki ve felsefi tarihini, şahane ideallerle ideal olmaktan çok uzak davranışların iç karartıcı bir anlatısına döndürmüştür. Kaç Hıristiyan gerçekten de kendine tokat atana öteki yanağını uzatır? Kaç Budist gerçekten bencil saplantılarını geride bırakır? Kaç Yahudi gerçekten komşusunu kendi canıymış gibi sever? Doğal seçilim Homo sapiens'i böyle şekillendirmiş işte. Tüm memeliler gibi Homo sapiens de ölüm kalım meselesi sözkonusuysa hızlıca karar alabilmek için hislerini kullanır. Öfkemizi, korkularımızı ve arzularımızı her biri doğal seçilimin çetin kalite kontrol testlerinden geçmiş atalarımızdan miras almışız. 

Ne yazık ki, bir milyon yıl önce Afrika'nın savanalarında hayatta kalmak ve üremek için işe yarayan şeyler 21. yüzyılın otobanlarında sağduyulu davranışlar sergilememizi sağlayacak diye bir kural yok. Dalgın, öfkeli ve sabırsız insan sürücüler her yıl bir milyondan fazla insanın trafik kazalarında hayatını kaybetmesine neden oluyor. Bu sürücülere tüm filozoflarımızı, tüm peygamberlerimizi, tüm din adamlarımızı göndersek, yola çıktıklarında yine memeli hayvanlara özgü hisleri ve savanalardan kalma içgüdüleri devreye girecek. Dolayısıyla ilahiyat öğrencileri telaş içindeyken yardıma ihtiyacı olan insanları görmezden gelecek, sürücüler kriz anlarında yayaları ezecek. 

İlahiyat fakültesiyle yol arasındaki bu ayrılık etik alanının en büyük sorunlarından biridir. Immanuel Kant, John Stuart Mill ve John Rawls üniversitelerin rahat amfilerinde oturup günlerce kuramsal sorunları tartışabilirler ama vardıkları sonuçlar tehlike anında stres altındaki sürücüler tarafından uygulamaya geçirilecek mi? Belki gelmiş geçmiş en iyi sürücü olarak anılan Formula 1 şampiyonu Michael Schumacher yarış esnasında felsefi düşüncelere dalma yetisine sahipti ama çoğumuz Schumacher değiliz. 

Oysa bilgisayar algoritmaları doğal seçilim tarafından şekillendirilmediği gibi duygu ya da içgüdü sahibi de değil. Dolayısıyla etik kurallarını doğru şekilde sayılar ve istatistikler olarak kodlamanın bir yolunu bulabilirsek, kriz anlarında etik ilkelere insanlardan daha iyi uyabilirler. Kant, Mill ve Rawls'a kodlama öğretebilseydik rahat laboratuvarlarında otonom arabayı itinayla programlarlar ve araba otoyola çıktığında verdikleri komutları hiç şüphesiz harfiyen uygulardı. Bunun sonucunda her araba yekvücut olmuş Michael Schumacher'le Immanuel Kant tarafından kullanılırdı. 

Şöyle ki, otonom bir arabayı yardıma ihtiyacı olan bir yabancı gördüğünde durup yardım etmeye programlarsanız, bu araba kıyamet kopsa da bu komutu uygular (tabii yazılıma gerçekten kıyamet kopmasına dair bir istisna madde eklemezseniz). Aynı şekilde otonom arabanız önüne atlayan iki çocuğu kurtarmak için ters şeride direksiyon kırmaya programlanmışsa tamı tamına öyle yapacağına adınız gibi emin olabilirsiniz. Bu da demek oluyor ki Toyota ya da Tesla otonom arabalarını tasarlarken ahlak felsefesine ilişkin teorik bir problemi mühendislik çerçevesindeki pratik bir probleme dönüştürecek. 

Felsefi algoritmaların asla mükemmel olamayacağı ortada. Yaralanmalara, ölümlere ve son derece karmaşık davalara neden olacak kazalar illa ki yaşanacaktır. (Tarihte ilk defa, teorilerinin yol açtığı vahim sonuçlara istinaden bir filozofu dava edebileceksiniz çünkü felsefi fikirlerle gerçek hayatta cereyan eden olaylar arasında doğrudan sebep sonuç ilişkisi ilk defa kurulabilecek.) Yine de insan sürücülerin yerini almaları için algoritmaların kusursuz olmasına gerek yok. İnsanlardan iyi olmaları yeterli. İnsan sürücülerin her yıl bir milyondan fazla kişinin canını aldığı düşünülürse, bu pek de zor değil. Ölçüp biçerseniz, yanınızda seyreden arabayı sarhoş bir ergenin mi yoksa Schumacher-Kant ikilisinin mi kullanmasını tercih edersiniz?19 

19. Kristofer O. Kusano ve Hampton C. Gabler, "Safety Benefits of Forward Collision Warning, Brake Assist, and Autonomous Braking Systems in Rear-End Collisions'', IEEE Transactions on Intelligent Transportation Systems 13:4 (2012), s. 1546-55; James M. Anderson vd., Autonomous Vehicle Technology: A Guide for Policymakers (Santa Monica: RAND Corporation, 2014), özellikle s. 13-15; Daniel J. Fagnant ve Kara Kockelman, "Preparing a Nation for Autonomous Vehicles: Opportunities, Barriers and Policy Recommendations", Transportation Research Part A: Policy and Practice 77 (2015), s. 167-81. 

Aynı mantık araba kullanmanın dışında başka pek çok durum için de geçerli. Örneğin iş başvurularını ele alalım. 21. yüzyılda birini işe alıp almama kararı giderek artan bir oranda algoritmalar tarafından verilecek. Gerekli etik standartları belirlemeyi makinelere bırakamayız; bunları yine insanların belirlemesi gerekecek. Ama iş dünyasına dair etik standartları, örneğin ırk veya cinsiyet ayrımı yapmanın yanlış olduğunu belirlediğimizde, makinelerin bu standartları insanlardan daha iyi uygulayıp koruyacağına emin olabiliriz. 20 

20. Tim Adams, "Job Hunting Is a Matter of Big Data, Not How You Perform at an Interview", Guardian, 10 Mayıs 2014, , 6 Eylül 2017' de erişildi.

İnsan bir yönetici siyahlara ve kadınlara karşı ayrımcılık yapmamak gerektiğini bilmenin yanı sıra bu görüşe katılmasına rağmen, siyah bir kadın iş başvurusunda bulunduğunda bilinçsizce ayrımcılık yapıp bu kadını işe almamaya karar verebilir. İş başvurularını değerlendirmeye bir bilgisayarı atar ve bu bilgisayarı ırk ve cinsiyeti hiçbir şekilde göz önüne almamaya programlarsak, bilgisayarın gerçekten de bu unsurları dikkate almayacağına emin olabiliriz çünkü bilgisayarların bilinçaltı yok. Elbette iş başvurularını değerlendirebilecek bir kod yazmak kolay olmayacaktır ve mühendislerin kendi bilinçaltlarındaki önyargıları yazılıma aktarmaları riski hep olacaktır. 21 Ama bu tür hataları fark edip yazılımı düzeltmek, insanları ırkçılıktan ve kadın düşmanlığından arındırmanın yanında devede kulak kalır. 

21. Son derece aydınlatıcı bir tartışma için bkz. Cathy O'Neil, Weapons of Math Destruction: How Big Data lncreases Inequality and Threatens Democracy (New York: Crown, 2016). Algoritmaların toplum ve siyaset üzerine etkisiyle ilgilenen herkes için olmazsa olmaz bir kitap bu

Şoförler ve trafik polisleri dahil (bildiğini okuyan insanların yerini itaatkar algoritmalar alınca trafik polislerine de gerek kalmayacaktır) pek çok insanın, yapay zekanın yükselişiyle çalışma yaşamının dışına atılabileceğini gördük. Fakat şimdiye kadar sahip oldukları yetiler piyasa değeri barındırmazken, birden kıymete binecek felsefeciler için yeni alanlar açılabilir. O yüzden ileride iyi bir iş garantisi bulunan bir dalda eğitim almak istiyorsanız sermayeyi felsefeye yüklemek çok da yanlış olmayabilir. 

Tabii filozofların doğru eylemenin yolları konusunda anlaştığı pek görülmemiştir. Az sayıda "vagon problemi" tüm filozofları tatmin edecek şekilde çözülmüştür; John Stuart Mill gibi eylemleri ortaya çıkan sonuca göre değerlendiren sonuççu düşünürlerle Immanuel Kant gibi eylemleri mutlak kurallara göre değerlendiren deontolojist düşünürler birbirinden oldukça farklı fikirlere sahiptir. Tesla'nın bir araç üretmek için bu kördüğüm meseleler hakkında gerçekten de belli bir tutum takınması mı gerekecek? 

Belki de Tesla kararı piyasaya bırakmayı seçer, özgeci Tesla ve bencil Tesla adlı iki ayrı otonom araç üretir. Özgeci modeli tehlike anında çoğunluğun iyiliğini düşünüp sahibini kurban eder. Bencil modeli işin ucunda iki çocuğun ölümü de olsa sahibini kurtarmak için elinden ne geliyorsa yapar. Müşteriler de meylettikleri felsefi görüşe en uygun arabayı satın alabilirler. Bencil modeli daha çok satılıyor diye Tesla'yı suçlayamazsınız. Ne de olsa müşteri her zaman haklıdır. 

Bu bir şaka değil. 2015 yılında yapılan öncü bir çalışmada, insanlara otonom bir arabanın birtakım yayalara çarpmak üzere olduğuna dair farazi bir senaryo sunulmuş. Çoğu insan böyle bir durumda arabanın sahibini öldürmek pahasına yayaların canını kurtarması gerektiğini söylemiş. Bu insanlara çoğunluğun yararı için sahibini tehlikeye atmaya programlı bir arabayı satın almak isteyip istemeyecekleri sorulduğundaysa çoğu hayır cevabını vermiş. Kendileri sözkonusu olunca tercihleri bencil Tesla yönünde. 22 

22. Bonnefon, Shariff ve Rawhan, "Social Dilemma of Autonomous Vehicles". 

Şöyle bir durum düşünün: Yeni bir araba aldınız ama arabayı kullanmaya başlamadan önce ayarlar menüsünü açıp seçeneklerden birini işaretlemeniz gerekiyor. Kaza anında araba hayatınızı mı tehlikeye atsın yoksa diğer arabadaki aileyi mi öldürsün? Bu yapmak isteyeceğiniz bir tercih mi? Hangi kutucuğu işaretleyeceğiniz konusunda eşinizle ne kavgalar edeceğinizi düşünün. 

O yüzden belki de devletin piyasanın işleyişini düzenlemek için devreye girip tüm otonom arabalar için geçerli bir etik kod şart koşması gerekecek. Kimi kanun koyucu merciler, nihayet her daim harfi harfine uyulacak yasalar koyma fırsatı buldukları için çok sevinecektir. Bu benzeri görülmemiş ve totaliter sorumluluk karşısında dehşete düşecek kanun koyucular da çıkabilir tabii. Ne de olsa tarih boyunca, yeni bir yasa yürürlüğe girdiğinde, yasal yaptırımların kısıtlamaları kanun koyucuların önyargılarını, hata ve aşırılıklarının kontrol edilmesine imkan tanımıştır. Eşcinsellik ve dine aykırı davranışların cezalandırılmasına ilişkin yasaların bütünüyle uygulanamamış olması büyük bir şans. Beşer şaşar siyasetçilerin kararlarının yerçekimi denli sarsılmaz olduğu bir düzen ister miyiz gerçekten? 

Dijital diktatörlük 

İnsanlar yapay zekadan itaatkar kalmayacağını düşündükleri için korkar genellikle. Efendilerine başkaldırıp sokaklarda başıboş gezerek önlerine çıkanı öldüren robotlar hakkında haddinden fazla bilimkurgu filmi izledik. Oysa robotlarla ilgili esas sorun bunun tam tersi. Muhtemelen her koşulda efendilerine itaat edecekleri ve asla başkaldırmayacakları için korkmalıyız onlardan. 

Körü körüne itaat eden robotlar iyi huylu efendilere hizmet ediyorsa sorun değil elbette. Savaş halinde bile işi katil robotlara bırakmak, tarihte ilk defa muharebe meydanında savaş kanunlarına fiilen uyulmasını sağlayabilir. İnsan askerler kimi zaman duygularının esiri olup cinayet, yağmalama ve tecavüz gibi savaş kanunlarını ihlal eden davranışlarda bulunabiliyor. Duygu deyince aklımıza merhamet, sevgi ve empatiyle ilgili şeyler gelir genellikle ama savaş zamanı kontrolü sıklıkla ele geçiren duygular korku, nefret ve acımasızlık olur. Robotların duyguları olmadığına göre askeri kanunlara harfiyen uyacaklarına, asla şahsi korkular ve nefret yüzünden yoldan çıkmayacaklarına güvenilebilir. 23 

23. Vincent C. Müller ve Thomas W. Simpson, "Autonomous Killer Robots Are Probably Good News", University of Oxford, Blavatnik School of Government Policy Memo, Kasım 2014; Ronald Arkin, Governing Lethal Behaviour: Embedding Ethics in a Hybrid Belirtiverin / Reactive Robot Architecture, Georgia Institute of Technology, Mobile Robot Lab, 2007, s. 1-13. 

16 Mart 1968 tarihinde Güney Vietnam'ın My Lai köyünde çığrından çıkan bir bölük Amerikan askeri dört yüz kadar sivili katletmişti. Bu savaş suçuna sebep olan şey aylarca ormanda gerilla savaşı sürdüren erlerin kendi inisiyatifleriydi. Herhangi bir stratejik amaca hizmet etmediği gibi, hem yasaları hem de ABD'nin askeri ilkelerini ihlal eden bir olaydı. Sorumlusu insan duygularıydı.24 ABD, Vietnam' da katil robotlar kullanabilseydi My Lai katliamı hiç yaşanmayabilirdi. 

24. Bernd Grainer, War without Fronts: The USA in Vietnam, çev. Anne Wyburd ve Victoria Fern (Cambridge, MA: Harvard University Press, 2009), s. 16. Askerlerin duygusal durumuna ilişkin en azından bir referans için bkz. Herbert Kelman ve V. Lee Hamilton, "The My Lai Massacre: A Military Crime of Obedience", Jodi O'Brien ve David M. Newman (eds.), Sociology: Exploring the Architecture of Everyday Life Reading (Los Angeles: Pine Forge Press, 2010) içinde, s. 13-25.

Ama yine de katil robotlar üretip sahaya sürme telaşına kapılmadan önce, robotların her daim kodlarının taşıdığı özellikleri birebir yansıttığını ve onları daha da güçlendirdiğini kendimize hatırlatmamız gerek. Kod ılımlı ve iyi huyluysa robotlar da muhtemelen sıradan bir insan askerden çok daha iyi olacaktır. Ama kod acımasız ve zalimse feci sonuçlar ortaya çıkacaktır. Robotlarla ilgili esas sorun kendi yapay zekaları değil, efendilerinin doğal aptallığı ve zalimliğidir. 


1995'in Temmuz'unda Bosnalı Sırp birlikleri Srebrenitsa civarındaki sekiz bini aşkın Müslüman Bosnalıyı katletti. Başıboş My Lai katliamının aksine Srebrenitsa' da işlenen cinayetler Bosna'yı Müslümanlardan temizlemeyi "ahlaki görev" bellemiş Bosnalı Sırpların politikasını yansıtan uzun soluklu ve organize bir operasyondu. 25 1995 yılında Bosna Sırplarının elinde katil robotlar olsaydı bu vahşetin boyutları büyük ihtimalle azalmaz, aksine daha da artardı. Verilen emirleri uygulamakta bir saniye olsun tereddüt edecek tek bir robot bile çıkmaz ve merhamet, yaptığından iğrenme ya da sadece bezginlik duygularına bağlı olarak tek bir Müslüman çocuğun bile hayatı kurtulmazdı. 

25. Robert J. Donia, Radovan Karadzic: Architect of the Bosnian Genocide (Cambridge: Cambridge University Press, 2015). Ayrıca bkz. Isabella Delpla, Xavier Bougarel ve Jean-Louis Fournel, Investigating Srebrenica: Institutions, Facts, and Responsibilities (New York, Oxford: Berghahn Books, 2012). 

Böylesi robotlara sahip acımasız bir diktatörün, ne denli insafsız ve çılgın emirler verirse versin, asla askerlerinin kendisine karşı çıkmasından korkması gerekmez. O dönemlerde bir robot ordusu olsaydı, Fransız Devrimi 1789'da başlar başlamaz bastırılırdı muhtemelen. Ve 2011 yılında Hüsnü Mübarek'in elinin altında katil robotlardan oluşan bir birlik olsaydı, bu birliği taraf değiştirirler korkusu taşımadan halkın üzerine sürebilirdi. Aynı şekilde robotlardan oluşan bir orduya hükmeden emperyalist bir hükümet de robotların motivasyonlarını yitirmesi ya da asker ailelerinin gösteri düzenlemesi tehlikesi olmaksızın, kamuoyunda destek görmeyen savaşlar açabilirdi. Vietnam Savaşı'nda ABD'nin elinde katil robotlar olsaydı My Lai katliamı engellenebilirdi ama savaşın kendisi çok daha uzun yıllar sürebilirdi çünkü ABD hükümetinin morali bozuk askerler, büyük çaplı savaş karşıtı gösteriler ya da "savaşa karşı savaş gazileri" akımı gibi dertleri olmazdı. (Bazı ABD vatandaşları yine de savaşa itiraz edebilirdi elbette. Ama bu protestocular askere alınma endişesi duymayacaklarından, mesul oldukları zulüm hafızalarına kazınmayacağından ya da sevdikleri bir akrabalarını kaybetme acısı taşımayacaklarından hem sayıca az hem de o denli ateşli olmazlardı.)26

26. Noel E. Sharkey, "The Evitability of Autonomous Robot Warfare'', International Rev. Red Cross 94 (886) 2012, s. 787-99. 

Otonom sivil arabalar için bu tür sorunlar çok daha az önem teşkil ediyor çünkü hiçbir üretici arabalarını insanları hedef alıp öldürmeye kasten programlamaz. Fakat otonom silah sistemleri faciaya davetiye çıkarır çünkü kimi düpedüz habis kimi de bozuk ahlaklı bir sürü hükümet var. 

Tehlike ölüm makineleriyle kısıtlı değil. Gözetleme sistemleri de bir o kadar riskli. Gözetleme algoritmaları iyi huylu bir devletin elinde insanlığın başına gelebilecek en iyi şeye dönüşebilir. Ama aynı büyük veri algoritmaları geleceğin Büyük Birader'inin gücüne güç katmaya ve Orwell'in kurguladığı gibi bir gözetim rejiminde tüm bireylerin durmadan izlenmesine de sebep verebilir. 27 

27. Ben Schiller, "Algorithms Control Our Lives: Are They Benevolent Rulers or Evil Dictators?", Fast Company, 21 Şubat 2017, , 17 Eylül 2017' de erişildi. 

Hatta iş Orwell'in dimağını aşacak noktalara bile gelebilir: hareket ve konuşmalarımızı dışardan izlemekle kalmayıp iç deneyimlerimizi kaydetmek üzere bedenimizin içine de sirayet edebilen mutlak bir gözetim rejimi. Kuzey Kore'nin Kim rejiminin bu yeni teknolojiyle neler yapabileceğini düşünün. Gelecekte tüm Kuzey Kore vatandaşları yaptıkları ve söylediklerinin yanı sıra tansiyonlarını ve beyin faaliyetlerini de gözlemleyen biyometrik bir bileklik takmak zorunda bırakılabilir. Kuzey Kore rejimi insan beynini giderek daha iyi kavramamızı ve makine öğrenmesinin muazzam gücünü kullanarak, tarihte ilk defa her bir vatandaşın anbean ne düşündüğünü ölçüp tartmaya muktedir duruma gelebilir. Biyometrik sensör Kim Jong-un'un resmine bakarken kızgınlık belirtileri (yüksek tansiyon, amigdala da faaliyet artışı) gösterdiğinizi algılarsa ertesi gün çalışma kampını boylarsınız. 

Kendini tecrit ettiği düşünülünce Kuzey Kore rejiminin gerekli teknolojiyi kendi kendine geliştirmesi zor görünüyor. Ama teknolojinin bu alanın öncüsü ülkelerde geliştirilip Kuzey Koreliler ve diğer gerici diktatörlükler tarafından kopyalanması ya da satın alınabilmesi kuvvetle muhtemel. ABD' den yaşadığım ülke İsrail'e pek çok demokratik ülke gibi hem Çin hem de Rusya durmaksızın gözetim araçları geliştiriyor. "Start-up ülkesi" lakabı takılan İsrail' de son derece canlı bir ileri teknoloji ve üstün bir siber güvenlik sektörü var. Bununla birlikte İsrail, Filistinlilerle ölümcül bir ihtilafın pençesinde ve en azından bazı liderler, generaller ve vatandaşlar gerekli teknolojiyi elde eder etmez memnuniyetle Batı Şeria' da mutlak gözetim rejimi oluşturacaktır. 

Günümüzde bile Filistinlilerin her telefon konuşması, her Facebook paylaşımı veya her şehirlerarası seyahati İsrail'in mikrofonları, kameraları, insansız hava araçları ya da casus yazılımları tarafından gözetleniyor muhtemelen. Toplanan veriler daha sonra büyük veri algoritmalarının yardımıyla analiz ediliyor. Bu sayede İsrail güvenlik kuvvetleri potansiyel tehlikeleri tespit edip sahaya bir sürü asker sürmeye gerek kalmadan etkisiz hale getirebiliyor. Filistinliler Batı Şeria' da birtakım kasabaların ve köylerin idaresine sahip olsalar da gökyüzünü, radyo frekanslarını ve siber alemi İsrail kontrol ediyor. Bu yüzden de Batı Şeria' daki 2,5 milyon Filistinliyi etkili şekilde kontrol altında tutabilmek için şaşılacak kadar az İsrail askerine ihtiyaç duyuluyor. 28

28. Elia Zureik, David Lyon ve Yasmeen Abu-Laban (der.), Surveillance and Control in Israel / Palestine: Population, Territory and Power (Londra: Routledge, 2011); Elia Zureik, Israel's Colonial Project in Palestine (Londra: Routledge, 2015); Torin Monahan (der.), Surveillance and Security: Technological Politics and Power in Everyday Life (Londra: Routledge, 2006); Nadera Shalhoub-Kevorkian, "E-Resistance and Technological in I Security in Everday Life: The Palestinian case", British Journal of Criminology, 52:1 (2012), s. 55-72; Or Hirschauge ve Hagar Sheizaf, "Targeted Prevention: Exposing the New System for Dealing with Individual Terrorism", Haaretz, 26 Mayıs 2017, 17 Eylül 2017'de erişildi; Amos Hare!, "The IDF Accelerates the Crisscrossing of the West Bank with Cameras and Plans to Surveille ali Junctions", Haaretz, 18 Haziran 2017, 17 Eylül 2017'de erişildi; Neta Alexander, "This is How Israel Controls the Digital and Cellular Space in the Territories", 31 Mart 2016, 12 Ocak 2018'de erişildi; Amos Harel, "Israel Arrested Hundreds of Palestinians as Suspected Terrorists Due to Publications on the Internet'', Haaretz, 16 Nisan 2017, 15 Ocak 2018' de erişildi; Alex Fishman, "The Argaman Era", Yediot Aharonot, Weekend Supplement, 28 Nisan 2017, s. 6.

Ekim 2017' de yaşanan trajikomik bir olay: Filistinli bir işçi Facebook sayfasında işyerindeki buldozerin yanı başında çekilmiş bir fotoğrafını paylaştı. Fotoğrafın altına da "Günaydın!" yazdı. Otomatik bir algoritma Arap harflerinin transliterasyonunda ufak bir hata yapıp harfleri "günaydın" anlamına gelen "Ysabechhum!" olarak değil de "saldır" anlamına gelen "Ydbachhum!" olarak algıladı. Adamın buldozerle insanları ezmeyi planlayan bir terörist olabileceğinden şüphelenen İsrail güvenlik kuvvetleri, adamı bir çırpıda gözaltına aldı. Algoritmanın hata yaptığı anlaşılınca adam serbest bırakıldı. Ama soruna yol açan Facebook paylaşımı yine de kaldırıldı. Dikkati elden bırakmamak lazım tabii.29 Günümüzde Batı Şeria' da Filistinlilerin başına gelenler, gün gelip dünyanın dört bir yanındaki milyonların başına geleceklerin ön gösteriminden ibaret olabilir. 

29. Yotam Berger, "Police Arrested a Palestinian Based on an Erroneous Translation of 'Good Morning' in His Facebook Page'', Haaretz, 22 Ekim 2017, , 12 Ocak 2018'de erişildi. 

20. yüzyılın sonlarında demokrasiler diktatörlükleri geride bırakıyordu çünkü demokrasiler veri işleme konusunda daha iyiydi. Demokrasi bilgiişlem ve karar alma yetkilerini farklı insan ve kurumlara dağıtır. Oysa diktatörlükler bilgi ve yetkiyi tek bir mercide toplar. 20. yüzyıl teknolojisi çerçevesinde büyük miktarda bilginin tek bir yerde toplanması verimsizdi. Kimsenin onca bilgiyi yeterince hızlı işleyip doğru kararlar alması mümkün değildi. Sovyetler Birliği'nin ABD' den çok daha kötü kararlar almış olmasının ve Sovyet ekonomisinin Amerika'nınkinden çok daha gerilerde kalmasının sebeplerinden biri de buydu. 

Ancak yapay zeka kısa bir süre sonra bu dengeyi tersine çevirebilir. Yapay zeka kullanılarak devasa miktarlarda bilgi, merkezi bir şekilde işlenebiliyor. Hatta yapay zeka yüzünden merkezi sistemler dağınık sistemlerden çok daha verimli hale gelebilir çünkü makine öğrenmesi, elinde analiz edecek ne kadar bilgi varsa o kadar iyi çalışıyor. Kişisel bilgilerin gizliliğine saygı göstererek veritabanınıza bir milyon insan hakkında kısmi bilgi koyacağınıza bir milyar insana ait tüm bilgileri, her tür gizlilik hakkını hiçe sayıp tek bir veri tabanına toplarsanız algoritmayı çok daha iyi çalışır hale getirebilirsiniz. Örneğin otoriter bir hükümet tüm vatandaşlarına ONA taramasına girmeyi ve tüm tıbbi verilerini merkezi bir otoriteye bildirmeyi emrederse, genetik ve tıbbi araştırmalar alanında tıbbi bilgilerin kesinlikle gizli tutulduğu toplumlara karşı çok büyük avantaj sağlar. 20. yüzyılda otoriter rejimlere ket vuran bu başlıca etmen, tüm bilgiyi tek bir yerde toplama çabası, 21. yüzyılda belirleyici bir avantaja dönüşebilir. 

Algoritmalar bizi daha iyi tanıdıkça otoriter hükümetler de vatandaşları üzerinde Nazi Almanya'sını gölgede bırakacak derecede mutlak bir kontrol elde edebilir. Ve bu tarz rejimlere direnmek tamamen imkansızlaşabilir. Bu rejim nasıl hissettiğinizi bilmekle kalmayacak; size ne isterse onu hissettirebilecek. Diktatör, vatandaşlara sağlık hizmeti ya da eşitlik getirmese de muhalifleri değil de kendisini sevmelerini sağlayabilecek. Şu anki haliyle demokrasi, biyoteknoloji ve bilişim teknolojilerinin iç içe geçmesini kaldıramayabilir. Ya demokrasi kendini bütünüyle yeni baştan şekillendirecek ya da insanlar "dijital diktatörlük" altında yaşamaya başlayacak. 

Hitler ve Stalin zamanlarına dönmek sözkonusu değil. Dijital diktatörlük Nazi Almanya'sından, Nazi Almanya'sının Fransa eski rejiminden farklı olduğu ölçüde farklı. XIV. Louis merkezileştirme meraklısı bir otokrattı ama elinde modern bir totaliter devlet kuracak teknoloji yoktu. İktidarına kimse karşı çıkmıyordu ama radyo, telefon ve tren olmadığından Bretonya'nın ücra köylerindeki çiftçilerin ve hatta Paris'in göbeğinde yaşayan şehirlilerin gündelik hayatları üzerinde bir kontrolü de yoktu. Büyük bir parti, ülke çapında bir gençlik hareketi ya da milli eğitim sistemi kurmaya ne niyeti ne de kabiliyeti vardı.30 Hitler'e bunları yapabilme motivasyonu ve gücünü sağlayan 20. yüzyılın yeni teknolojileriydi. 2084'ün dijital diktatörlüğüne motivasyon ve güç sağlayacak şeyi şimdiden kestiremeyiz ama Hitler ve Stalin'i kopyalamakla yetinmeleri düşük bir ihtimal. 1930'ların savaşlarını yeniden vermek için silah kuşananlar bambaşka bir yönden gelen bir saldırıyla gafil avlanabilirler. 

30. William Beik, Louis XIV and Absolutism: A Brief Study with Documents (Boston, MA: Bedford / St Martin's, 2000). 

Demokrasi uyum sağlamayı ve ayakta kalmayı başarsa bile insanlar yeni baskıların ve ayrımcılıkların mağduru olabilirler. Bir sürü banka, şirket ve kurum daha şimdiden verileri analiz edip hakkımızda kararlar verebilmek için algoritmaları kullanıyor. Bankaya kredi başvurusu yaptığınızda değerlendirmeyi yapan büyük ihtimalle bir insan değil, algoritma. Algoritma sizin hakkınızda bir sürü veriyi ve milyonlarca insana ilişkin istatistikleri analiz ederek kredi verilecek kadar güvenilir olup olmadığınıza karar veriyor. Çoğunlukla da insan bir bankacıdan daha iyi iş çıkarıyor. Ama sorun şu ki algoritma bazı insanlara haksız yere ayrımcılık uygularsa bunu tespit etmek zor. Banka size kredi vermeyi reddeder ve siz de gidip "Niye?" diye sorarsanız bankanın cevabı "Algoritma hayır dedi," olur. "Algoritma niye hayır dedi? Benim ne gibi bir kusurum var?" diye sorarsanız bankanın diyeceği, "Bilmiyoruz. Bu algoritmayı anlayan insan yok. Kendisi ileri düzey makine öğrenmesinin bir ürünü. Ama algoritmamıza güveniyoruz, o yüzden size kredi veremiyoruz."31 

31. O'Neil, Weapons of Math Destruction, age.; Penny Crosman, "Can AI Be Programmed to Make Fair Lending Decisions?'', American Banker, 27 Eylül 2016, , 17 Eylül 2017'de erişildi. 

Ayrımcılık, kadınlar ya da siyahlar gibi tüm bir gruba uygulandığında bu gruplar örgütlenip uğradıkları ayrımcılığı topluca protesto edebilirler. Ama artık bir algoritma şahsen size ayrımcılık uygulayabilir ve siz nedenini bilemezsiniz. Kim bilir, belki DNA'nızda, geçmişinizde ya da Facebook hesabınızda hoşuna gitmeyen bir şey buldu. Algoritmanın size ayrımcılık uygulama nedeni kadın olmanız ya da ırkınız değil, siz olmanız. Algoritmanın hoşlanmadığı, şahsınıza özel bir şey var. Bunun ne olduğunu bilmiyorsunuz; bilseniz de birebir aynı haksızlıktan mustarip başka birini daha bulamayacağınıza göre örgütlenip protesto etmeniz de mümkün değil. Bir siz varsınız. 21. yüzyılda genel ayrımcılık yerine kişisel ayrımcılık gibi bir sorunun yaygınlaştığını görebiliriz.32 

32. Matt Reynolds, "Bias Test to Prevent Algorithms Discriminating Unfairly'', New Scientist, 29 Mayıs 2017, , 17 Eylül 2017' de erişildi; Claire Cain Miller, "When Algorithms Discriminate", New York Times, 9 Temmuz 2015, , 17 Eylül 2017' de erişildi; Hannah Devlin, "Discrimination by Algorithm: Scientists Devise Test to Detect AI Bias", Guardian, 19 Aralık 2016, , 17 Eylül 2017' de erişildi.

Algoritmaların sadece danışmanlık yaptığı, mutlak otoritenin hala insanların elinde olduğu yanılsaması yaratmak için otoritenin en üst seviyelerinde, sembolik liderler konumunda birtakım insanlar kalabilir. Almanya Başbakanlığına ya da Google CEO'luğuna yapay zeka atamayacağız. Yine de başbakan ve CEO tarafından alınan kararları yapay zeka şekillendirecek. Başbakan çeşitli seçenekler arasından bir tercih yapabilir ama tüm bu seçenekler büyük veri analizinden çıkacak ve insanlardan ziyade yapay zekanın dünyayı nasıl algıladığına bağlı olacak. 

Paralel bir örnek vermek gerekirse, günümüzde dünyanın çeşitli yerlerindeki siyasetçiler farklı ekonomik politikalardan birini seçebiliyor ama neredeyse her bir durumda sunulan seçeneklerin hepsi kapitalist ekonomi anlayışını yansıtan politikalar. Siyasetçiler tercih yapabildikleri yanılsaması yaşıyor ama gerçekten önem atfeden tercihler menüdeki farklı seçenekleri belirleyen ekonomistler, bankacılar ve işinsanları tarafından çok önce yapılmış. Siyasetçiler bir süre sonra kendilerini yapay zekanın oluşturduğu bir menüden seçim yapar vaziyette bulabilirler. 

Yapay zekayla doğal aptallık 

İyi haberlerden biri şu ki en azından kısa süre zarfında bilimkurguları andıran bir bilinç kazanıp insanlığı köleleştirmeye ya da ortadan kaldırmaya karar veren bir yapay zeka kabusu yaşamayacağız. Vereceğimiz kararları gitgide daha fazla algoritmalara bırakmaya başlayacağız ama algoritmaların bilinçli bir şekilde bizi yönlendirmeye başlaması pek mümkün görünmüyor. Bilinçleri olmayacak. 

Bilimkurgu zekayı bilinçle karıştırma ve bilgisayarların insanlarla boy ölçüşmek için bilinç geliştirmesi gerektiğini varsayma eğilimindedir. Yapay zeka hakkındaki neredeyse tüm film ve romanlar bir bilgisayar veya robotun bilinç kazandığı o büyülü an etrafında şekilleniyor. Bu gerçekleştikten sonra da ya başkahraman robota aşık oluyor ya robot herkesi öldürmeye çalışıyor ya da bu iki şey eşzamanlı cereyan ediyor. 

Oysa gerçekte yapay zekanın bilinç kazacağını varsaymayı gerektirecek bir sebep yok çünkü zeka ve bilinç apayrı şeyler. Zeka sorun çözme becerisi. Bilinç acı, neşe, aşk ve öfke gibi şeyler hissedebilme becerisi. Bu ikisini birbirine karıştırmamızın sebebi, bunların insan ve diğer memelilerde bir arada bulunması. Memeliler çoğu sorunun üstesinden bir şeyler hissederek gelir. Bilgisayarların sorunları çözme şekliyse bambaşkadır. 

Üstün zekaya giden çok farklı yol var ve bunların sadece bazısı bilinç kazanmayı gerektiriyor. Nasıl ki uçaklar tüy çıkarmadan kuşlardan hızlı uçabiliyor, bilgisayarlar da bilinç geliştirmeden memelilerden daha iyi sorun çözer hale gelebilir. Yapay zekanın insan hastalıklarını iyileştirmek, insan teröristleri tespit etmek, eş önerilerinde bulunmak ve yayaların kol gezdiği bir sokakta yol almak için insanların duygularını isabetli bir biçimde analiz etmesi gerektiği doğru. Ama bunu duygu sahibi olmadan da yapabilir. Algoritmanın neşeli, sinirli ya da ürkmüş maymunların farklı biyokimyasal yapılarını tanımak için neşe, öfke ya da korku hissetmesi gerekmez. 

Tabii yapay zekanın kendine has duygular geliştirmesi tamamen imkansız değil. Buna kesin kanaat getirmek için bilinç hakkında yeterli bilgimiz hala yok. Genel hatlarıyla üç olasılığı göz önüne almamız gerekiyor: 

1. Bilinç bir şekilde organik biyokimyaya bağlı olduğundan inorganik sistemlerde bilinç yaratmak asla mümkün olmayacak. 
2. Bilinç organik biyokimyaya değil zekaya bağlı ve bilgisayarlar bilinç geliştirebilir, belli bir zeka seviyesine erişmek için de bilinç geliştirmeleri gerekir. 
3. Bilinçle organik biyokimya ya da üstün zeka arasında bir bağlantı olması şart değil. O yüzden bilgisayarlar bilinç geliştirebilir ama bu şart değil. Sıfır bilinçle de süper zeki olabilirler. 

Şu anki bilgi düzeyimizde bu olasılıkların hiçbirini eleyemeyiz. Ama tam da bilinç hakkındaki bilgi eksikliğimiz sebebiyle yakın zamanda bilinçli bilgisayarlar programlamamız mümkün görünmüyor. Dolayısıyla muazzam gücüne rağmen yapay zekanın kullanımı, öngörülebilir bir gelecek dahilinde, kısmen insan bilincine bağlı kalacak. 

Tehlike şurada yatıyor: tüm vaktimizi yapay zeka geliştirmeye harcayıp insanları bilinçlendirmeyi es geçersek, bilgisayarların o pek sofistike yapay zekaları, olsa olsa insanların doğal aptallıklarını beslemeye yarar. Önümüzdeki yıllarda bir robot ayaklanmasının yaşanma olasılığı düşük ama duygularımızla annelerimizden daha iyi oynayabilen ve bu tedirgin edici yeteneği bize araba, belli bir siyasetçi ya da kapsamlı bir ideoloji gibi şeyleri pazarlamak için kullanan robot sürüleri karşımıza çıkabilir. Robotlar en derin korkularımızı, nefretlerimizi ve tutkularımızı tespit edip bu içsel eğilimleri aleyhimize kullanabilir. Böyle bir şeyin tadı dünyanın çeşitli yerlerindeki seçim ve referandumlarda ağzımıza çalındı bile. Hackerlar insanlar haklarındaki verileri analiz edip mevcut önyargıları istismar ederek seçmenleri nasıl yönlendirebileceklerini öğrendiler.33 Bilimkurgu filmleri tozun dumana katıldığı dramatik kıyametlerle sonlansa da gerçek hayatta yüzleşeceğimiz son, onu bunu tıklayacağımız bayağılıkta bir kıyamet olabilir. 

33. Snyder, The Road to Unfreedom, age. 

Bu tarz sonuçlardan kaçınmak için yapay zekaya harcadığımız her dolar ve her dakikaya karşılık insan bilinci konusunda gelişme kaydetmek için de aynı miktarda dolar ve dakika harcasak iyi ederiz. Maalesef an itibarıyla insan bilincini araştırmak ve geliştirmek için pek bir şey yapmıyoruz. İnsan becerilerine yönelik araştırma ve geliştirme çabaları, bilinçli varlıklar olarak uzun vadede neye gereksinim duyduğumuza göre değil ekonomik ve siyasi sistemin anlık ihtiyaçlarına göre şekilleniyor. Patronum elektronik postaları bir an önce cevaplamamı istiyor ama yediğimden tat alma becerimle ilgilendiği yok. Sonuçta yemek yerken bile elektronik postaları kontrol ediyor, duyumlarımı dikkate alma yeteneğimi ise kaybediyorum. Ekonomik sistem beni portföyümü genişletip çeşitlendirmeye zorluyor ama merhamet duygumu genişletip çeşitlendirmeye teşvik etmiyor. Sonuçta borsanın gizemlerini anlamaya gayret ediyorum ama çekilen eziyetlerin altında yatan derin nedenleri anlamaya çok daha az çaba harcıyorum. 

İnsanlar bu açıdan diğer evcil hayvanlara benziyor. Yüklü miktarda süt veren ama onun haricinde vahşi atalarının çok aşağısında kalmış uysal inekler yetiştirdik. O denli çevik, meraklı ya da becerikli değiller.34 Şimdi de yüklü miktarda veri üreten ve dev bir veri işleme mekanizmasının son derece etkin çipleri olma fonksiyonunu yerine getiren yumuşak başlı insanlar yetiştiriyoruz ama bu veri ineklerinin insanın potansiyelini en üst seviyeye taşıdığı söylenemez. Esasen insanların azami potansiyelinin ne olduğu konusunda bir fikrimiz yok çünkü insan zihni hakkında çok az şey biliyoruz. Ve buna rağmen insan zihnini keşfetmek adına yeterince yatırım yapmıyor, onun yerine İnternet bağlantımızın hızını ve büyük veri algoritmalarımızın etkinliğini artırmaya yoğunlaşıyoruz. Dikkatli olmazsak geliştirilmiş bilgisayarlar kullanarak kendine ve dünyaya büyük zararlar veren geriletilmiş insanlara dönüşeceğiz. 

34. Anna Lisa Peterson, Being Animal: Beasts and Boundaries in Nature Ethics (New York: Columbia University Press, 2013), s. 100. 

Bizi bekleyen tek tehlike dijital diktatörlükler değil. Liberal düzen özgürlüğün yanı sıra eşitliğin önemini de ön planda tutmuştu. Siyasi eşitliği en başından beri el üstünde tutan liberalizm zamanla ekonomik eşitliğin de bir o kadar önemli olduğu kanısına varmıştı. Zira sosyal bir güvenlik ağı ve bir nebze ekonomik eşitlik yoksa özgürlüğün de bir anlamı yok. Ama büyük veri algoritmaları özgürlüğü bastırdığı gibi toplumlar arasında gelmiş geçmiş en derin uçurumları da yaratabilir. Çoğu insan sömürünün değil ama çok daha kötü bir şeyin, işlevsizliğin cefasını çekerken tüm servet ve güç, üç beş seçkinin elinde toplanabilir. 

Yuval Noah Harari 2002'de Oxford Üniversitesi'nde tarih doktorasını tamamladı, halen Kudüs İbrani Üniversitesi Tarih Bölümü'nde dünya tarihi dersleri vermektedir. 2014'te yayımlanan Hayvanlardan Tanrılara: Sapiens ve 2017' de yayımlanan Homo Deus: Yarının Kısa Bir Tarihi onlarca dile çevrilmiş, dünya çapında çoksatanlar listelerini altüst etmiştir.

Yazarın şu an üzerinde çalıştığı makro-tarihsel sorular şunlardır:

Homo sapiens ve diğer hayvanlar arasındaki en temel fark nedir?
Tarihle biyoloji arasında nasıl bir ilişki kurulabilir?
Tarihte adalet var mıdır?
Tarihin bir istikameti var mıdır?

Yorum Gönder

0 Yorumlar