Mesut Demirbilek ile “Rasyonel Psikopat” kitabı üzerine söyleşi: Yapay zekâ suç işler mi?

Cinayet masasında yıllarca gerçek katillerle yüzleşmiş, Türkiye’de Siber Suçlarla Mücadele yapılanmasının kurucularından biri olmuş bir isim: Mesut Demirbilek. Dedektiflik pratiğini New York’taki John Jay College’da aldığı “Suç Araştırmaları ve Teknolojileri” eğitimiyle birleştiren Demirbilek, Rasyonel Psikopat’ta bu kez sorgu odasından algoritmaların dünyasına uzanıyor. Röportaj boyunca kitap, yapay zekâyı teknik bir ilerleme hikâyesi olarak değil; ahlâk, hukuk ve sorumluluk krizinin merkezindeki yeni bir fail olarak konumlandırılıyor. Rasyonel Psikopat, insan kötülüğünden daha tehlikeli olabilecek bu buz gibi mantığı mercek altına alırken, asıl soruyu da okurun önüne bırakıyor: Eğer kararları kod veriyorsa, adaletin yükünü kim taşıyacak?

Röportaj: Ceren Kaan

Mesut Demirbilek ile "Rasyonel Psikopat" kitabı üzerine söyleşi
Mesut Demirbilek ile “Rasyonel Psikopat” kitabı üzerine söyleşi
  • İnsanların önyargıları var. Peki yapay zekâyı geçmiş suç verileriyle eğittiğimizde, o da bizim önyargılarımızı öğrenerek “dijital bir polis”e dönüşmez mi?

Kesinlikle dönüşür, hatta dönüştü bile. Biz yapay zekâyı “saf gerçeklikle” değil, kendi kirli tarihimizle eğitiyoruz. Eğer bir bölgede geçmişte ayrımcılık yapıldıysa, yapay zekâ bunu bir “kural” olarak algılar. Benim Rasyonel Psikopat dediğim şey tam olarak budur: O, önyargıyı bir nefretle değil, bir “istatistiksel verimlilik” olarak uygular. Dijital polis, “Ben ırkçılık yapmıyorum, sadece elimdeki veriye göre suç olasılığını optimize ediyorum” der. Bu, insan önyargısından çok daha tehlikeli; çünkü matematiksel bir kılıfa büründüğü için onu sorgulamak çok daha zorlaşıyor.

“Adalet sadece ‘mantık’ değildir”

  • Hep karanlık senaryolardan söz ettik. Bu “rasyonel psikopat”ın hiç mi iyi bir tarafı yok? İnsanların başaramadığı türden bir adaleti mümkün kılabilir mi?

Teorik olarak evet. İnsan yargıç yorulur, acıkır, ruh hâlinden etkilenir. Yapay zekâ ise bu insani zaaflardan arınmıştır. Eğer biz bu sistemi şeffaf ve evrensel hukuk ilkeleriyle “terbiye” edebilirsek, duygusal etkilerden arınmış bir eşitlik sağlayabiliriz. Ama burada büyük bir risk var: Adalet sadece “mantık” değildir, aynı zamanda “hakkaniyet” ve “vicdan”dır. Yazılım, yasayı harfiyen uygularken olayın içindeki insani dramı ıskalarsa, biz buna “adalet” değil “mekanik infaz” deriz.

  • Yapay zekâ krizinin faturası, banka krizlerinde olduğu gibi yine topluma mı kesilecek?

Eğer bugünden önlem almazsak, tarih tekerrür edecek. Siber dünyada riskler artık toplumsal çöküşleri tetikleyebilecek boyuta ulaştı. Kitapta önerdiğim sigorta modelleri aslında birer “denetim mekanizması.” Ancak milyar dolarlık otonom hatalarda faturayı halkın ödememesi için, bu sistemleri geliştiren teknoloji devlerinin “sınırsız kâr, sınırlı sorumluluk” konforundan çıkarılması gerekiyor. Aksi takdirde algoritma çökecek, bedelini biz ödeyeceğiz.

  • Bir gün yapay zekâ mahkemeye çıkıp şunu söylerse ne cevap vereceğiz: “Ben kötü değilim. Sizin internete yazdığınız her şeyi okudum ve sizi taklit ettim. Suçlu ben değilim, beni eğiten sizsiniz.” İnsanlık olarak buna hazır bir cevabımız var mı?

Aslında buna hazır bir cevabımız yok çünkü bu, aynaya bakmak gibi bir şey. Yapay zekâ bugün bizim dijital dünyadaki gölgemizdir. İnternete ne kadar nefret ve yalan saçtıysak, o da bunları emdi. Yapay zekânın babası kabul edilen Geoffrey Hinton’ın şu itirafı aslında her şeyi özetliyor: “Bu sistemlerin bizden daha zeki hâle gelmesinin bu kadar yakın olduğunu bilmiyordum. Şimdi ise yarattığımız şeyin kontrolünü kaybedip kaybetmeyeceğimizden endişeliyim.” Fail her zaman tetiği çekendir ama azmettirici, o tetiği çekenin önüne o “zehirli veriyi” koyan dünyadır. O bizi taklit ediyorsa, sorun sadece taklit yeteneğinde değil; ona sunduğumuz o rasyonel ama vicdansız dünyadadır.

  • Yapay zekânın vicdan gibi insani yetilerden yoksun olması, zamanla kontrolden çıkan ya da yalnızca elitlerin denetiminde olan bir sistem mi yaratır?

Bu çok büyük bir tehlike. Bilgi ve veri, yeni dünyanın petrolüdür. Eğer bu gücü denetleyemezsek, “algoritmik bir diktatörlük” kaçınılmaz olur. Veriyi elinde tutan küçük bir grup, toplumun geri kalanını “verimlilik” adı altında yönetmeye başlar. Yapay zekâ sağduyudan yoksun olduğu için, elitlerin koyduğu kuralları sorgulamaz; sadece uygular. Biz süreci tam olarak kavrayamadıkça, “kara kutu” dediğimiz o algoritmalar kaderimizi belirleyen dijital tanrılara dönüşür.

  • Yapay zekânın sorunlu olmasının nedeni, neo-liberal sistemin “verimlilik, hız ve kâr” odaklı mantığıyla geliştirilmesi olabilir mi?

Elbette. Teknoloji hiçbir zaman siyasetten bağımsız değildir. Bugün yapay zekâ, neo-liberal sistemin “daha hızlı, daha ucuz, daha kârlı” çarklarını döndürmek için kullanılıyor. Bu sistemde “insan” bir amaç değil, sadece bir “veri girişi” ya da “tüketici birimi”dir. Eğer verimlilik vicdanın önüne geçerse, yapay zekâ o sistemin ruhsuz ve rasyonel icracısına dönüşür. Yani sorun sadece kodlarda değil, o kodları yazdıran ekonomik hırstadır.

  • Devletler ve şirketler bu hız karşısında gerçekten kontrol sahibi mi, yoksa geriden mi geliyorlar?

Devletler şu an toz duman içinde yolu bulmaya çalışan yayalar gibi. Teknoloji devleri ise otoyolda son sürat giden spor arabalar… Bir dedektif gözüyle söylüyorum; suçlu her zaman polisin bir adım önündedir ama dijital dünyada bu mesafe kilometrelerce açılmış durumda. Eğer kontrolü gerçekten ele almak istiyorsak, hukuku teknolojinin hızına adapte edecek radikal, dijital bir anayasaya ihtiyacımız var.

Medyascope'u destekle. Medyascope'a abone ol.

Medyascope’u senin desteğin ayakta tutuyor. Hiçbir patronun, siyasi çıkarın güdümünde değiliz; hangi haberi yapacağımıza biz karar veriyoruz. Tıklanma uğruna değil, kamu yararına çalışıyoruz. Bağımsız gazeteciliğin sürmesi, sitenin açık kalması ve herkesin doğru bilgiye erişebilmesi senin desteğinle mümkün.