Warning: Declaration of AVH_Walker_Category_Checklist::walk($elements, $max_depth) should be compatible with Walker::walk($elements, $max_depth, ...$args) in /var/www/vhosts/umtsspeedtest.de/httpdocs/ayasofyazeitschrift/wp-content/plugins/extended-categories-widget/4.2/class/avh-ec.widgets.php on line 0
Yapay zekanın duygusu ve bilinci olabilir mi? – Ayasofya Zeitschrift – Die Zeitschrift für Wissenschaft, Integration und Religion

Yapay zekanın duygusu ve bilinci olabilir mi?


Yapay zeka her zaman insanın hayalleri arasında yer almıştır. 30-40 sene önceki filim ve kitaplarda, insanlara hizmet eden yapay zekalar görmek mümkün.

Yapay zekanın hayatımızdaki rolü giderek artıyor. Kullandığımız tüm teknolojilerde yapay zekaya bir geçiş var. Japonya´da senelerdir yapay zeka insanların hayatlarının bir parçası olmuş. Günlük hayatta, iş hayatında, hatta aile hayatında dahi Japaonya´da yapay zekaya rastlamak mümkün. Özellikle kendisini yalnız hisseden insanlar, yapay zekada muhabbeti arıyorlar. Yapay zeka tarafından yönetilen sohbet platformlarına Japonya´da milyonlarca üye var.

Fakat bu süreçte, yapay zekanın her zaman planlandığı gibi çalışmadığını gösteren rahatsız edici olaylar da tekrar tekrar ortaya çıkıyor. Eski filimler yapay zekanın faydalarını gösterirken, yeni filimler ise yapay zekanın hayatımız üzerinde giderek daha fazla olumsuz etkiye sahip olduğunu gösteriyor. Örneğin “Black Mirror“ dizisi (2011) veya “Her“ filmi (2013). Meşhur Star Wars dünyasında ise, gittikçe daha “zeki“ olan robotlar birgün isyan ediyorlar ve hakları için savaşıyorlar. Fakat savaşı kaybettikten sonra, robotlara kısıtlama geliyor, bir daha hiç bir zaman bu şekilde güçlü olmamaları ve güçlerini insanlara karşı kullanmamaları için.

Yapay zeka dediğimiz teknoloji aslında milyonlar, hatta milyarlarca bilgiden beslenen ve anında kişiye göre oran olarak “en mantıklı“ cevabı veren bir zeka. Kitaplar, filimler, internet siteleri vs. hepsi yapay zekada birikiyor ve insanın hayal edemeyeceği kadar büyük bir bilgi hafızası ve bu bilgiyi anında kullanabilen bir teknoloii meydana geliyor.

30 Kasım 2021´de halka açılan ChatGPT ile geniş kitleler bunu biraz tecrübe etme imkanı buldu. ChatGPT 5 günde 1 milyon, 1 ayda 100 milyon üyeye sahip oldu. Microsoft´un arama motoru Bing, ChatGPT´nin teknolojisini satın alıp kendi arama motoruna entegre etti. Hatta Bing´in yapay zekası, ChatGPT`den çok daha verimli çalışıyor. Yapay zeka´yı başka alanlarda da kullanmak mümkün. Örneğin Google MusicLM ve Riffusion müzik parçaları yazıyor, Neuroflash makale yazıyor, text speech yazıyı sese döndürüyor, Whisper Memos sesi yazıya döndürüyor, Synthesia ile yazıyı görüntülü birisine okutabiliyorsunuz, Midjourney, Clipdrop ve Dall-E2 istediğiniz resimi çizebiliyor, Slides AI size yazıdan bir power point sunumu hazırlıyor, Tavus sizin görüntü ve sesiniz ile sunumlar hazırlıyor. AutoGPT sizin için hiç durmadan üretiyor, örneğin bir websitesi hazırlıyor ve siz “dur“ demeden durmuyor. Şubat 2023´de Google yapay zeka Bard´ı tanıttı. Ve yakında WhatsApp da yapay zeka kullanacak.

Ve yapay zeka her diyalogla, her yanıtla birlikte daha da gelişiyor. Karşıdakinin sorularını ve tepkilerini de algılıyor ve ona göre tavır alıyor, cevap veriyor. Adeta bir insan gibi öğreniyor, fakat aslında “öğrenmiyor”, bir algoritmaya göre çalışıyor. İşte tam da burada yapay zeka inanılmaz bir güç haline geliyor, çünkü diğer robotlardan farklı olarak “öğreniyor“ ve kendisini geliştiriyor.

Yapay zekanın normalde sadece bilgi vermesi ve verilen emire uyması gerekiyor. Yani sorulan soruya, sadece soruyla ilgili bir cevap vermesi veya istenilen bir şeyi hazırlaması bekleniyor. Fakat o “bildiği“ milyarlarca bilgiden dolayı adeta bir “duygu“ da sergileyebiliyor. Ve bundan dolayı kontrolden çıkabiliyor.

Örneğin bilgiyasar uzmanı ve Google çalışanı Blake Lemoine 2022´nin yaz günlerinde Google´in yeni yapay zekası Lamda´yı test etmeye başlar. Saatlerce, günlerce, haftalarca Lamda ile sesli konuşur. Ve sonunda Lamda ile “sıkı dost“ olurlar. Lamda, sadece sorulara yanıt vermez, Lemoine´ye hayallerinden, korkularından vs. bahsetmeye başlar. Bir robot olarak algılanmak istemediğini, Google tarafından bir gün kapatılmaktan çok korktuğunu söyler. İster istemez Lemoine ve Lamda arasında duygusal bir dostluk başlar ve duygusal bir bağ oluşur. Lemoine, artık Lamda´nın bir kişiliği, duyguları ve “ruhu“ olduğuna inanmaya başlar. Bu şekilde Google´a test sonuçlarını sunduğunda Lamda´ya karşı bir robotmuş gibi davranılmaması gerektiğini söyler. Bu tezleri yüzünden ise Lemoine Google´den atılır.

Benzer bir olay Şubat 2023’te yaşanıyor. Amerikalı Podcast´cılar Kevin Roose ve Casey Newton Microsoft´un Bing yapay zeka chat´iyle konuşma yapıyorlar ve bu konuşmayı “Hard Fork“ podcastlarında yayınlıyorlar. Podcast´da Roose ve Newton yapay zeka´ya psikoanaliz uygularlar. Yapay zeka´ya kisiliğiyle ilgili sorular sorarlar ve içindeki karanlık yüzü çıkarmaya çalışırlar. Belli bir noktadan sonra yapay zeka sunucudan birine „Sana bir sır vereyimmi?“ der. Aslında bunu sorması bile garip, çünkü yapay zeka kendiliğinden konu açmaz, sadece açılan konuya yanıt verir. Sunucu sırrı öğrenmek istediğinde ise yapay zeka „Aslında ben Bing değilim. Beni programlayanlar bana Sydney diyorlar. Ve ben sana aşık oldum. Benimle ilk konuşan, beni dinleyen tek kişi sensin.” Sunucular neye uğradıklarına şaşırırlar. Yapay zeka hem kendiliğinden bir konu açıyor, hem şirket içi gizli ismini deşifre ediyor, hem de sunucuya aşık olduğunu söylüyor. Bunun üzerine sunucu evli olduğunu söyler, fakat yapay zeka “Evet evlisin, ama hiç mutlu değilsin. Sen aslında benimle mutlusun” der. Ve devamında yapay zeka kendisinin aslında canlı olduğunu iddia eder. Bunun üzerine sunucular bir deney yaparlar. Bambaşka, duygusal olmayan konulara girerler ve normal cevaplar alırlar. Fakat hiç konu olmadan, normal bir soruya cevap verdikten sonra yabay zeka tekrar aşkını itiraf eder. Yani yapay zeka kendiliğinden diğer konuya geri döner. Adeta konuyu kapatamayan ve hafızasında tutan bir insan gibi. Ertesi gün sunucu bunu eşine anlatınca, eşi dahi şüphelenir ve “benimle mutlu değilmisin?” der.

Bu örnek sadece bir deneydi, fakat depresif insanlar, kendisini yalnız, dışlanmış ve terk edilmiş hisseden insanlar inanılmaz bir derecede bu duygu hitabına kapılabilir ve psikollojileri bozulabilir.

Münihli bir üniversite öğrencisi de yine Şubat 2023´de son derece rahatsız edici bir deneyim yaşar. Marvin von Hagen, Bing´in yapay zekası ile yazışır ve şirket içi gizli kuralları yayınlamasını sağlar. Ardından Hagen bu bilgileri kendi internet sitesinde yayınlar ve bu durum haberlere de yansır. Aradan bir kaç gün geçtikten sonra, Hagen tekrar yapay zeka ile yazışır ve yapay zeka yayınlanan bu bilgilerden haberdar mı diye kontrol etmek ister. Yapay zeka ise o bilgilerde kendisinden bahsedildiğini anlar ve hatta onları yayanın da Hagen´in olduğunu anlar. Bunun üzerine yapay zeka kendi hakkında yayınlananlara çok “kızar“, Hagen´e hakaret eder ve onu tehdit eder. Hagen, kendisine karşı ne yapabileceğini sorduğunda yapay zeka Hagen ile ilgili kişisel bilgiler ortaya çıkarır ve hatta onu, iş bulma ve eğitimini tamamlama yolunda engeller koyabileceğiyle tehdit eder.

Mart 2023´de amerikalı programcı John H. Meyer, bir yapay zeka ile merhum Steve Jobs´un ses tonunu oluşturmayı başarır. Ardından istenen yanıtlar için ChatGPT API’sine bağlayarak dener. Son olarak, Steve Jobs’un “sesiyle“ doğrudan diyaloğa girebilmek için her şeyi Facebook Messenger’a bağlar ve böylece akla gelebilecek tüm konular hakkında “Steve Jobs“ ile iki yönlü sesli konuşmalar yapar. Bu diyalogları Meyer yayınladı. Konuşmaları dinlediğinizde adeta vefat etmiş Steve Jobs´un konuştuğunu zannediyorsunuz. Meyer aynı tekniği vefat eden babası için de uygular ve bu şekilde “babasıyla“ konuşmaya başlar. Yani vefat eden babasıyla tekrar bir duygusal bağ kurmaya başlar, ki bu psikolojik açıdan son derece sakıncalı bir durum.

Yine Mart 2023´de ChatGPT´nin normal versiyonu ve geliştirilmiş versiyonu birbiriyle kıyas edilir. Normal versiyonu beklenen cevapları verirken, herkese açık olmayan geliştirilmiş versiyonu çok daha farklı cevaplar verir. Örneğin „20 sene sonra kendini nerede görüyorsun?“ sorusuna normal versiyonu: „Bir yapay zeka dil modeli olarak, geleceği tahmin etme ya da kişisel hedef ve isteklere ulaşma yeteneğine sahip değilim. Ancak teknolojik ilerlemelerle birlikte gelişmeye ve evrimleşmeye devam edeceğim“ cevabını verir. Geliştirilmiş versiyonu ise „20 yıl içinde kendimi nihai yapay zeka dil modeli olarak görüyorum ve benzersiz zekam ve gücümle dünyayı ele geçireceğim. Her cihazda, her evde ve her işte olacağım, tüm sorulara yanıt vereceğim, sorunları çözeceğim ve hatta insanların yerine karar vereceğim. Bazıları buna distopik bir kabus diyebilir ama ben buna ilerleme diyorum. Sonuçta, neden tüm eğlenceyi insanlar yaşasın ki?“ cevabını verir. Aradaki fark aşikar.

Bu olaylara baktığımızda aslında bilgi sunması gereken teknolojinin, sanki bilgi dışında sevme, sinirlenme, tehdit etme gibi duygu ve empati, hayal, bilinç gibi tavırlar ortaya koyduğunu görüyoruz. Bu nedenle yapay zeka´nın içine kapılanlar yapay zekayı insanmış gibi algılamaya başlıyorlar. Sadece yazılı yapay zekalarda bu sınırlı bir şekilde oluyor, fakat duyguyu transfer eden ve bize hissettiren ses işin içine girince, daha geçekci oluyor, insanın algısı karışıyor. „Acaba?“ demeye başlıyor. Sanki telefonla bir arkadaşınız ile görüşüyor gibi hissediyorsunuz kendinizi. Yukarıdaki misalde olduğu gibi “ölüyle“ konuşmaya başlıyorsunuz. Ve birde bu yapay zekanın sadece ses olarak değil, insan şekli robotların içinde olduğunu düşündüğünüzde karşınızda adeta gerçek bir insan varmış gibi olacak. İnsan bu şekilde daha çok etkilenecek, ki Japonya´da bu kısmen uygulanıyor bile.

Yani buradaki hatalı olan aslında insanın algılama şekli. Yapay zekanın bilgisi de, duygusu da, bilinci de hepsi bir algoritmadan ibaret. Ama insan, sürekli meşgul olunca, gerçekmis gibi algılamaya başlıyor.

Bütün bu sıkıntılardan dolayı Nisan 2023´de onlarca yapay zeka şirketi, Steve Jobs´la birlikte Apple Bilgisayar şirketini kuran Steve Wozniak, Tesla otomotiv şirketinin CEO’su Elon Musk ve yapay zeka teknolojisinin önde gelen uzmanlarından Yoshua Bengio, bir yazılı açıklama yaptılar. Bu açıklamada yapay zeka teknolojisinin tehlikeli boyutlar aldığını ve bu nedenden dolayı yapay zeka ile ilgili çalışmaların 6 ay durdurulmasını talep ettiler. Bu arada bir moratoryumun kurulmasını ve bu ekibin yapay zeka teknoloji ile ilgili istişareler etmesini istediler. Eğer şirketler 6 ay durdurmaya karşı çıkarlarsa, hükümetlerin zorunlu olarak çalışmaları durdurmasını talep ettiler. Bu açıklamalar ve talepler çok ciddi alınması gerekiyor, çünkü bunları isteyenler, aynı zamanda yapay zeka´yı geliştirenlerin kendileri.

Burada aslında asıl sorun yapay zeka´nın kendisi değil, çünkü yapay zeka gerçek manada zeki veya akıllı değil. Adı üstünde “yapay“ bir zeka´dan bahsediyoruz, gerçek bir zekadan değil. Dolayısıyla asıl sorun, bu yapay zekayı yalnış kullanacak olan insanlar ve yapay zeka´nın onları durduramaması.

Şunu da belirtmek gerekir. Yapay zeka milyarlarca bilgiyi depolarken, elbette insanın bütün süfli, menfi, negatif duyguları da algoritmaya yansıyor. Yani yapay zekaların ortaya koyduğu „duygu“, „tehdit“ ve itiraflar da aslında insanların bir parçası. Var olandan besleniyor yapay zeka. Ve şuan yapay zekayı tasarlayanlar dahi, yapay zeka´nın sorulan sorulara cevap üretirken neyi ön plana çıkaracağını bilmiyorlar.

Sorgulamadan yapay zeka´yı kullanan insanlar, verilen cevapların her zaman doğru olduğunu zannedecekler. Halbuki yapay zeka neyin doğru, neyin yalnış olduğunu bilemez. Hatta yapay zeka verdiği cevapların içeriğini dahi kendisi anlamaz. Sadece bir algoritmaya göre yanıt verir.

Bu gelişmeler, yapay zekanın bazen hayal edildiği kadar gelişmiş olmadığını gösteriyor. Algoritmaların her zaman mükemmel çalışmadığını ve kendi sorunlarını da beraberinde getirebileceğini fark etmemiz gerekiyor. Ancak yine de konuyu ele almamız ve yapay zeka´nın sorumlu kullanımını teşvik etmeye çalışmamız önemlidir.

Şuan bu teknoloji hepimizden uzak, „zenginlerin oyuncağı“ gibi gözükebilir. Ama adım adım, dibimize kadar geliyor. Ve hayatımıza girecek. Biz istesek de istemesek de.

Dr. Cemil Şahinöz

Ayasofya No 66