Özgür gazeteciliğe destek olun
Search
Close this search box.

Melanie Mitchell: “Yapay zekâ anlam bariyerini aşabilecek mi?”

Melanie Mitchell, Portland State University’de bilgisayar bilimi profesörü, aynı zamanda Santa Fe Institute’de ders veriyor. Yeni kitabı “Artificial Intelligence: A Guide for Thinking Humans” (Yapay Zekâ: Düşünen İnsanlar İçin Bir Rehber) 2019’da yayımlanacak. 5 Kasım 2018’de The New York Times’ta yayımlanan makalesini Oğul Tuna çevirdi.

Melanie Mitchell

Bir yapay zekâ (YZ) devriminin ortalarında olduğumuzu muhtemelen duymuşsunuzdur. Makine zekâsının baş döndüren bir hızla geliştiği; “sinir ağları” adıyla bilinen karmaşık programları işleyecek ve devasa miktarda veriyi kullanacak “derin öğrenme” algoritmalarıyla çalıştığı söylendi bizlere.

Bugünün yapay zekâ programları insan yüzünü tanıyabiliyor ve sözlü cümleleri yazıya geçirebiliyor. Elimizde incelikli finansal sahtekârlıkları saptayabilecek; muğlak sorgularımıza cevap verecek, uygun web sitelerini bulabilecek; herhangi bir varış noktasına denk düşen en iyi rotayı hesaplayabilecek; satranç ve Go’da insan ustalarını yenebilecek ve yüzlerce dil arasında çeviri yapabilecek programlar var. Dahası kendini süren arabaların; otomatik kanser teşhisinin; ev temizleyen robotların ve hatta otomatik bilimsel keşiflerin yaygınlaşmanın eşiğinde olduğumuz söyleniyor.

En son, Facebook’un kurucusu Mark Zuckerberg, gelecek 5 ila 10 yılda şirketinin yapay zekâ sisteminin “görüş, duyuş, dil ve genel kavrama yetisi gibi temel insanî duyularda insan seviyesinden iyi hâle getirileceğini” duyurdu. Google’ın DeepMind grubunun lider bilim insanı Shane Legg, “2020’lerin ortasında insan düzeyindeki yapay zekânın aşılacağını” öngördü.

Yapay zekâ üzerine on yıllardır çalışan birisi olarak, insan düzeyindeki yapay zekânın geleceği üzerine öngörülerin birbirine benzer biçimlerde başarısız çıktığına tanık oldum. Eminim ki bu son kehanetler de kısa zamanda boş çıkacaktır. Makinelerde insan benzeri zekânın yaratılması meselesi hâlâ fazlasıyla hafife alınıyor. Bugünün yapay zekâ sistemleri; insan zekâsının temelinde bulunan, tecrübe ettiğimiz durumları idrak etmek, bunların anlamına varabilmek gibi hususlarda oldukça yetersiz. Matematikçi ve filozof Gian-Carlo Rota’nın ünlü sözüyle ifade ettiği gibi “Yapay zekânın anlam bariyerini aşıp aşamayacağını merak ediyorum.” Benim için hâlâ en önemli sorun bu.

Makinelerdeki insanî anlayış eksikliği, çağdaş yapay zekânın temellerinde ortaya çıkan son çatlaklarla tekrar gündeme geldi. Bugünkü programlar 20-30 yıl önceki sistemlerden daha etkileyiciyken; bir dizi araştırma, derin öğrenme sistemlerinin insanî olmayan yollardan kesinlikle güvenilmez olabileceğini göstermiştir.

Birkaç örnek vereyim.

“Başı açık adamın şapkaya ihtiyacı vardı” cümlesi, telefonumun konuşma programı tarafından “Başa çıkan şapkada acı vardı” şeklinde yazıya geçirilebiliyor. Google Translate “Yaz-kış oku, yaz” tümcesini “Lis en été, en hiver, l’été” (“yazmak” fiilini “yaz” mevsimiyle karıştırıyor) şeklinde çevirebiliyor.

“Odadaki Fil” ve bilgisayar korsanları

Belgeleri “okuyan” ve bunlar hakkındaki soruları cevaplayan programlar; kısa, alakasız ve kırpılmış metin parçalarının belgeye eklenmesi durumunda yanlış cevaplar verebiliyor. Benzer şekilde, derin öğrenmenin büyük başarısı olarak övülen, insan yüzünü ve nesneleri tanıyan programlar; ışık, görsel filtreleri ve diğer ayarlamalarla, insanların tanıma kabiliyetlerini etkilemeyecek en ufak durumda bile, dramatik hatalar verebiliyor.

Güncel bir çalışma, yüz görsellerine az miktarda “parazit” eklendiği takdirde son teknoloji ürünü yüz tanıma programlarının ciddi biçimde performans düşüklüğü sergilediğini gösterdi. Mizahi biçimde “Odadaki Fil” ismiyle anılan bir başka çalışma ise bir oturma odası görselinin köşesine eklenen yersiz bir nesnenin, mesela bir filin, bulunması durumunda; derin öğrenme görüş programlarının garip biçimde görseldeki diğer nesneleri tanıyamadığını ortaya koydu.

İlaveten, bir video ya da masa oyununda “insanüstü” bir seviyede oynamayı öğrenen programlar, oyun az biçimde değiştirildiğinde yetilerini tamamen kaybediyor (video oyunun arka plan rengi değiştiğinde “toplara” vuran “sopaların” pozisyonu da değişiyor).

Bütün bu örnekler; eğitildiklerinden, az ölçekte de olsa, farklı durumlarla karşı karşıya kaldığında yapay zekâ programlarının güvenilmez hâle gelebileceğini gösteriyor. Bu sistemlerin yaptıkları hatalar önemsiz bir seviyeden potansiyel olarak yıkıcı olanlara dek değişebiliyor; örneğin, yüzünüzü bir suçlununkiyle karıştıran bir havaalanı güvenlik sistemi sizi uçağa almayabilir ya da kendi kendini süren bir araba alışılmadık aydınlatma koşulları yüzünden, caddeden karşı karşıya geçerken sizi fark etmeyebilir.

Daha da kaygılandırıcısı, yapay zekâ sistemlerinin zayıflığını ortaya koyan, sözde “hasmane örnek” (adversarial exemple) olarak adlandırılan son göstergelerdir. Buna göre, kötü niyetli bir hacker görseller, ses dalgaları ve metin belgeleri üzerinde insanların algılayamayacağı ya da insanlardan bağlantısız özel değişiklikler yapabilir ve bir programın felakete sürükleyecek hatalar yapmasına sebep olabilir.

Yapay zekânın uygulandığı bilgisayarlı görme, medikal görüntüleme, konuşma tanıma ve dil işleme dahil neredeyse her alanda bu tür saldırı ihtimalleri gözlendi. Birçok çalışma bilgisayar korsanlarının, prensipte, yüz ve nesne tanıma sistemlerini görüntülere özgü küçük değişikliklere kandırabileceğini; “dur” levhasının üstüne yapıştırılan ve göze çarpmayan etiketlerle “karşıdan gelene yol ver” levhasıymış gibi kendini süren arabaların görme sistemini şaşırtabileceğini; insanlara arka plan müziği gibi gelen bir ses sinyalini değiştirerek Siri ya da Alexa’nın sistemine sessizce emir verebileceğini göstermiştir.

Aptal bilgisayarlar dünyayı çoktan ele geçirdi

Bu potansiyel zafiyetler, yapay zekâ alanında hâlihazırdaki ilerlemelerin, anlam bariyeri tarafından engellendiğini ortaya koyuyor. Yapay zekâ sistemleriyle çalışan herkes; insan benzeri görsel kabiliyetlerin, dildeki akıcılığın ve oyunlardaki hünerin arkasında aslında insanların olmadığını biliyor: Ne işledikleri girdiyi ne de ürettikleri çıktıyı anlıyorlar. Bu tarz anlama eksikliği, programları beklenmedik hatalar yapmaya ve saptanamaz saldırılara elverişli hâle getiriyor.

Bu bariyeri aşmak için makinelere, sığ özelliklerle yetinmek yerine; karşı karşıya kaldıkları durumları daha derinden anlama yeteneği vermek için ne gerekecektir? Sorunun cevabını bulmak için insan bilişselliğine göz atmamız lazım.

Karşılaştığımız durumlara dair bizim kendi anlayışımız; dünyanın nasıl yürüdüğüne dair geniş, sezgisel “ortakduyu bilgisi” ile hedeflerimiz, güdülerimiz ve diğer yaşayan canlıların, özellikle de diğer insanların, olası davranışlarına dayanmaktadır. Ek olarak, dünyayı kavrayışımız; bildiklerimizi genelleme, soyut kavramlar oluşturma ve analojiler kurma gibi temel yeteneklerimize -kısacası sahip olduğumuz kavramları yeni durumlara esnekçe uyarlayabilme kabiliyetimize dayanır. Uzmanlar on yıllardır yapay zekâ sistemlerini sezgisel ortakduyu ve insan benzeri genelleme yetenekleriyle güçlendirmeyi deniyor. Ancak oldukça zor olan bu serüvende çok az ilerleme kaydedildi.

Ortakduyu ve insan kavrayışının diğer temel yönlerine sahip olmayan yapay zekâ programları gitgide artarak gerçek-dünya uygulamalarına sevk ediliyor. Kimi insanlar “olağanüstü zeki” yapay zekâ hakkında endişelenedursun; yapay zekâ sistemlerinin en tehlikeli yönü, onlara çok güvenecek ve sınırlarının farkında olmadan çok fazla otonomi verecek olmamızdır. Yapay zekâ uzmanı Pedro Domingos’un “The Master Algorithm” (Usta Algoritma) adlı kitabında yazdığı üzere “İnsanlar bilgisayarların çok akıllanıp dünyayı ele geçirmelerinden ürküyor; halbuki asıl sorun, aptal ve dünyayı çoktan ele geçirmiş olmalarıdır.”

Yapay zekâyı ticarileştirme yarışı, ince işlerde “olduğu kadar” işleyecek sistemler üretmeleri için uzmanların üstünde devasa baskı yaratıyor. Ama nihayetinde, güvenilir yapay zekâ geliştirme amacı için fevkalade yeteneklerimizi daha derinden tetkik etmek ve dünyayı güvenilir ve sağlam şekilde anlamak için kullandığımız bilişsel mekanizmalara yönelik yeni kavrayışlar gereklidir. Yapay zekânın anlam bariyerini aşması için muhtemelen bu alanda geriye yönelmek gerekecektir. Daha büyük ağlardan ve veri toplamadan uzaklaşıp bu alanın köklerine yönelerek disiplinlerarası bilimin uğraştığı en zor bilimsel probleme dönmek gerek: Zekânın doğası.

Bize destek olun

Medyascope sizlerin sayesinde bağımsızlığını koruyor, sizlerin desteğiyle 50’den fazla çalışanı ile, Türkiye ve dünyada olup bitenleri sizlere aktarabiliyor. 

Bilgiye erişim ücretsiz olmalı. Bilgiye erişim eşit olmalı. Haberlerimiz herkese ulaşmalı. Bu yüzden bugün, Medyascope’a destek olmak için doğru zaman. İster az ister çok, her katkınız bizim için çok değerli. Bize destek olun, sizinle güçlenelim.