Yapay zekâ ürünleri standart bir güvenlik denetiminden geçmeden piyasaya sürülürse, Hararinin ortaya koyduğu gibi zihinsel ve toplumsal dünyamızı yok edebilecek türden yeni bir kitle imha silahı” ile karşı karşıya kalabiliriz.   Ülkemizde halen yakın tarihe dek aydınlar yakılırken ve daha düne kadar bir mitinge katılanlar başlarını yarana dek kaya yağmuruna kapılırken, insan bir yandan da medeni dünyanın gündemine bakıp iç çekiyor. Medeni ülkeler dijital dünyayı gelişmek, kalkınmak için kullanırken bizde halen TikTok’ta büyük bir cezasızlık algısı içerisinde canlı yayın açanlar, “yakın la yakın bunları, çakmak yok mu” provokasyonlarıyla bu güzel ülkenin güzel insanlarını birbirine düşürüp geriye koskocaman bir karanlık bırakmak için didiniyorlar.  Bilgi yarışmalarında birinci olan robotlar, Japonya’da belediye başkanlığına aday olan robotlar, cep telefonlarımıza yüklenen ve bize adeta sanal asistanlık yapan Siri, kendi kendini süren otomobiller, yapay zekâ ile yazılan ödevler, seçmen kitlelerinin analizi için kullanılan yapay zekâlar, sahte bot hesaplarla yapılan manipülasyonlar, fMRI yöntemiyle insanın aklından geçen düşünceleri okumaya başlayan araçlar... Yapay zekâ, kimilerine göre insanlık tarihinin en önemli başarısı, ancak bir yandan da insanlığın Aşil topuğu olabilir. Birçoğumuzun kütüphanesine “Sapiens” isimli kitabıyla yüksekten giriş yapan İsrailli yazar ve tarihçi Yuval Noah Harari’nin geçtiğimiz günlerde yapay zekâ ve insan kültürüne dair The Economist’te ilginç bir yazısı çıktı. Harari, yapay zekânın insan medeniyetinin “işletim sistemini heklediğini”, bunu da kelimeler, sesler veya görüntüler yoluyla dili manipüle etme yoluyla yaptığını ileri sürüyor. Harari’ye göre, insan kültürünün özünde “dil” bulunuyor, zira insan hakları veya para gibi “insan yapımı kültürel olgular” DNA’mızda yer almazlar ve onlara varlık kazandıran şey bizim anlattığımız hikâyeler, yazdığımız yasalar veya bankerlerin ya da maliye bakanlarının paraya atfettikleri değerdir. Dolayısıyla topluluk yaşantısının temellerindeki olgulara gerçek değerini katan, onlara dair yazılan anlatılardır. İNSAN ZEKÂSINI SOLLAR MI? İşte tam da bu noktada Harari’yi bir endişe sarıyor: İnsan-dışı bir zekâ, hikâyeler anlatmada, resimler çizmede veya yasalar hazırlamada ortalama insan zekâsından daha iyi bir noktaya gelirse neler olur? Bu endişelerin bazıları kısa süre önce ChatGPT sohbet robotunun okul ödevlerinde kullanılması ve bundan ileri gelen etik sorular sırasında dillendirmiştik ve “okul sisteminin geleceğinin” yapay zekâ etkisiyle nereye sürükleneceği konusunda tartışmalar alevlenmişti. Bir yandan da şu anda Türkiye’de seçimlere sayılı gün kala “dark web” tartışmaları almış başını gitmişken, ABD’de de önümüzdeki sene başkanlık yarışında yapay zekânın rolüne dair tartışmalar büyüyor. Bu seçim kampanyalarında yapay zekâ yoluyla kitlesel düzeyde siyasi içerik üretilebileceği, sahte haberler hazırlanabileceği ve hatta yeni komplo teorilerinin ortaya çıkabileceği endişeleri hâkim. Hatta kısa süre önce Cumhuriyetçi Parti Ulusal Komitesi, Joe Biden’ı eleştirmek için yapay zekâyla oluşturulmuş bir video kullandı ve eğer seçimleri Biden kazanırsa neler olabileceğine dair varsayımsal felaket senaryolarını birbiri ardı sıra görüntülerle yerleştirdi: Çin’in Tayvan’ı işgali, finansal piyasaların çöküşü ve distopik bir Amerika geleceğini betimlemek üzere daha neler neler... DERİN SAHTELER DE DEVREDE Her ne kadar bu videonun yapay zekâyla hazırlandığı belirtilse de ileride seçim kampanyalarında bu yönde bir zorunluluk olmadan görüntüler kullanabileceğinden, bir kişinin söylemediği veya yapmadığı şeyleri yapmış veya söylemiş gibi gösteren video ve ses kayıtlarını içeren derin sahtelerin (deepfakes) yaygınlaşabileceğinden endişeleniliyor. Zira yapay zekânın seçim kampanyalarına dahil olmasıyla birlikte rakipler arasında birbirlerinin argümanlarına video ile karşılık verme hızı dakikalara dek inebilecek. Yapay zekâ, siyasi partilerin “baş danışmanları” yerine ve belki de onlardan daha hızlı bir şekilde interneti tarayacak; belirli bir strateji geliştirip karşı tarafı “mat etmeye” dönük argümanlar geliştirecek; kendi seçmenlerinin “göçmen” veya “ekonomik gidişat” gibi konulardaki “hassas noktalarını” kullanmaya dönük mesajlar üretecek; hedef kitleyi –örneğin kararsız seçmeni- doğru bir şekilde belirleyecek; hatta bazı kitlelerin oyunu cezbetmek ve onları ikna etmek üzere “espri” bile yapabilecek.
Hararinin vardığı nokta şu: Yapay zekâ da insanları manipüle ederek denetimi altına almak, yeni bir toplum mühendisliğine soyunmak için dili ve hikâye anlatıcılığını kullanabilir.
Bu teknoloji, kâğıt üzerinde, sosyal medya şirketlerine veya danışmanlara yüksek meblağlar ödemeye gerek kalmadan hızlı ve etkili bir çözüm sunuyor. Örneğin yapay zekâ yoluyla seçmene ulaşılarak belli başlı siyasetçilere oy vermeleri yönünde ikna yetenekleri ortaya konuyor. Ancak herkesin siyasi içerik üreticisi hâline geldiği bu sistemde dezenformasyonun yayılması da hızlanıyor. Anımsarsanız, 2017'de Donald Trump'ın başkanlığı sırasında QAnon isimli aşırı sağ bir komplo teorisi ortaya atılmış, Trump’ın ülkesini ele geçiren “pedofil Demokratlar”a karşı ülkesini kurtarmak amacıyla Tanrı tarafından görevlendirildiğine dek varan inanışlar türemişti. Bu teoriye inananlar kedi aralarında anonim online mesajlarla haberleşiyorlardı ve bu haberleşmelere “Q damlaları” (Q drops) adını veriyor, bu “damlalara” da kutsal metin değeri atfediyorlardı. Harari’ye göre, ileride bu tür haberleşmeler bile yapay zekâ ile yapılacak ve bir takım kültlerin “kutsal kitapları” bile “bilinmeyen bir insan-dışı varlık tarafından” yazılacak. YAPAY” HİKÂYE ANLATICILIĞI İLE TOPLUM MÜHENDİSLİĞİ Dolayısıyla Harari’nin vardığı nokta şu: Yapay zekâ da insanları manipüle ederek denetimi altına almak, yeni bir toplum mühendisliğine soyunmak için dili ve hikâye anlatıcılığını kullanabilir. Böylelikle de bizi kendi içimizden fethedebilir. Çünkü yapay zekânın en önemli karakteristiklerinden biri, milyonlarca insanla kitlesel olarak “yakın ilişki” kurabilmesi. Hatta çoğu kişi artık Google arama motorunu kullanmaya bile üşenerek merak ettiği her şeyi yapay zekâ araçlarına sorar oldu. Bu, Harari’nin “zihinleri ve kalpleri fethetmeye dönük bir siyasi muharebe” olarak nitelendirdiği durum... Ancak tüm bu yaşananlar aynı zamanda hızlı bir şekilde kontrolden çıkabilecek bir sürece de işaret ediyor ve yeni yapay zekâ ürünlerinin hükümetler tarafından ancak çok güvenli hâle getirildikten, riskleri yönetilebilir olduktan sonra halkın kullanımına sunulması gerekiyor. Harari, bu durumu “potansiyel olarak insanlık tarihinin sonu” şeklinde yorumluyor; çünkü insanlık tarihini belirleyen kültürel öğeler ortadan kalkarak, dijital dünyadaki tektipleştirme ortamında yapay zekâ üzerinden hikayeler anlatılıyor, kurallar konuyor ve yepyeni bir kültür tasarlanıyor.
Yapay zekâ temelli araç ve hizmetlere yönelik bir yasal çerçeve oluşturulması, yapay zekânın sağlayacağı kolaylıklar için daha sağlıklı ve güvenilir bir zemin oluşturuyor. Böylelikle yapay zekânın güvenli ve etik bir şekilde kullanımı mümkün oluyor.
Bu süreç iyi yönetilmez ise, yapay zekâ ürünleri standart bir güvenlik denetiminden geçmeden piyasaya sürülürse, Harari’nin ortaya koyduğu gibi “zihinsel ve toplumsal dünyamızı yok edebilecek türden yeni bir kitle imha silahı” ile karşı karşıya kalabiliriz. Harari’nin yapay zekânın siyasi süreçlerin altını oyma riskine dair yerinde bir tespiti var: “Demokrasi, karşılıklı konuşmadır ve bu konuşmalar dile dayanır. Yapay zekâ insan dilini heklediğinde, anlamlı konuşmalar yapma yeteneğimize ve demokrasiye zarar verebilir.” Bu uyarı vaktiyle ünlü fizikçi Stephen Hawking’in, yapay zekânın kontrolden çıkması halinde, “insan ırkının son başarısı olabileceği” yönündeki açıklamasında da yer bulmuştu. YASAL ÇERÇEVE ŞART Dolayısıyla, yapay zekâ temelli araç ve hizmetlere yönelik bir yasal çerçeve oluşturulması, yapay zekânın sağlayacağı kolaylıklar için daha sağlıklı ve güvenilir bir zemin oluşturuyor. Böylelikle yapay zekânın güvenli ve etik bir şekilde kullanımı mümkün oluyor. Kısa süre önce Avustralya’da da yapay zekâ teknolojisinin suiistimal edilmesini önlemeye dönük yasal düzenleme çağrıları yapılmıştı. Boğaziçi Üniversitesi fizik bölümünden emeritus Profesör Alpar Sevgen ise, Harari’nin kişisel temaslarda insanın karşısındakinin yapay zekâ mı insan mı olduğunun net bir şekilde bilinmesi gerektiğine dair tespitine dikkat çekiyor ve bunun pek de kolay olmadığını söylüyor. Bu konu özelinde geçtiğimiz günlerde görüştüğüm Prof. Sevgen, “hiçbir istihbarat örgütü, yapay zekâ silahından vazgeçmez. Ordular, psikolojik harp” silahı olarak yapay zekâyı kullanmaya devam eder. Kapitalist şirketler de Türkiyeden Hindistana, Afrikaya dek bunu kullanır. Siyasi partiler ve terörist örgütler de yapay zekâdan vazgeçemez. Ok yaydan fırlamış durumda. Tek çare, kişilerin kendilerini savunabilmeleri”, diyor.
Belki yaklaşan seçimler açısından geç kalmış olabiliriz ama demokrasinin ve seçim sistemlerinin dönüştüğü bugünlerde artık Aşil topuğumuzu yasal ve sosyolojik olarak güçlendirmenin vakti artık geldi. Unutmayın: Nullius in Verba...
Bunun için de takip edilmesi gerekli olan iki yoldan söz ediyor Prof. Sevgen: (1) Nullius in Verba (kimsenin sözüyle değil) – ki bu fiziğin "motto"su- yani denemeden, üzerinde etraflıca düşünmeden hiç kimsenin dediğini doğrudan kabul edip inanmamak; (2) Nobel Ekonomi Ödülü sahibi Amerikalı psikolog Daniel Kahneman'ın dediği gibi kararları onun bunun dediğine göre değil "data"ya dayandırarak alabilmek. Dolayısıyla, Prof. Sevgen, gerek seçim süreçlerinde, gerekse olağan yaşantılarımızda yapay zekânın insanları tuzağa düşürebilen etkilerine, beyin yıkama ve manipülasyonda bulunma girişimlerine karşı, “insanı” koruyan ilkeleri ön plana çıkaran yasa ve uygulamaların hayata geçirilmesi gerektiğini belirtiyor, ancak yine de belli bir noktaya kadar karamsarlığını koruyor: “İnsanoğlu masal ve maval dinlemeye ve inanmaya çok yatkın bir varlık. On binlerce senedir böyle geliyor ve değiştirmesi çok zor,” diyor. Belki yaklaşan seçimler açısından geç kalmış olabiliriz ama demokrasinin ve seçim sistemlerinin dönüştüğü bugünlerde artık Aşil topuğumuzu yasal ve sosyolojik olarak güçlendirmenin vakti artık geldi. Unutmayın: Nullius in Verba...