OpenAI CEO’su Sam Altman, yapay zekâ ile yapılan kişisel ve duygusal içerikli sohbetlerin yasal olarak gizli kabul edilmediğini ve dava durumlarında bu bilgilerin paylaşılmak zorunda kalabileceğini söyledi.
OpenAI CEO’su Sam Altman, ChatGPT’yi terapist gibi kullananları uyardı, “İfşa olabilirsiniz” dedi. komedyen Theo Von’un “This Past Weekend” adlı podcast’ine konuk olan Sam Altman, Von’un “Yapay zekâ ile ilgili hangi yasal çerçeveler mevcut?” sorusuna, “AI için bir hukuk ya da politika çerçevesine kesinlikle ihtiyacımız var” dedi.
Altman özellikle, insanların ChatGPT’yi bir terapist gibi kullanmaya başlamasıyla birlikte, bu alandaki yasal belirsizliğin giderek büyüdüğünü belirtti.
“En kişisel şeyleri anlatıyorlar”
“İnsanlar hayatlarının en kişisel şeylerini ChatGPT ile paylaşıyor. Özellikle gençler bunu bir terapist ya da yaşam koçu olarak kullanıyor” diyen Altman, klasik terapi sistemlerinde var olan gizlilik ilkelerinin burada geçerli olmadığını hatırlattı.
Altman, “Bir terapist, avukat ya da doktorla konuştuğunuzda yasal gizlilik hakkınız vardır. Ancak ChatGPT ile yaptığınız konuşmalar için şu anda böyle bir koruma yok” dedi.
Altman’a göre, biri ChatGPT’ye çok özel bilgilerini anlattığında ve sonrasında bu kişiyle ilgili bir dava açıldığında, mahkeme kararıyla bu kayıtlar talep edilebilir. “Bu bence gerçekten çok tuhaf bir durum” diyen Altman, ChatGPT ile yapılan görüşmelerin de tıpkı bir terapist ile yapılan görüşmeler kadar özel kabul edilmesi gerektiğini savundu.
Altman, bu sorunun “acilen” ele alınması gerektiğini ve bu konuda görüştüğü yasa yapıcıların da aynı fikirde olduğunu söyledi. Podcast sunucusu Von ise, bu belirsizlik nedeniyle ChatGPT ile çok fazla konuşmadığını söyledi. Altman ise yanıtında, “Evet, bu konu netleşmeden kullanmak istememen çok mantıklı” dedi.
Medyascope'u destekle. Medyascope'a abone ol.
Medyascope’u senin desteğin ayakta tutuyor. Hiçbir patronun, siyasi çıkarın güdümünde değiliz; hangi haberi yapacağımıza biz karar veriyoruz. Tıklanma uğruna değil, kamu yararına çalışıyoruz. Bağımsız gazeteciliğin sürmesi, sitenin açık kalması ve herkesin doğru bilgiye erişebilmesi senin desteğinle mümkün.
Yapay zekâ terapisine dair başka endişeler de var
Yasal gizlilik tartışmasının yanı sıra, yapay zekâ destekli terapilerin içeriksel riskleri de bilim insanlarının gündeminde. Stanford Üniversitesi tarafından yayımlanan yakın tarihli bir araştırma, AI terapistlerin bazı ruh sağlığı durumları karşısında damgalayıcı ya da uygunsuz ifadeler kullandığını ortaya koydu. Araştırma, bu tür chatbot’ların “marjinalleşmiş gruplara karşı ayrımcılık” yapabildiğini ve insan terapistlerin yerini alamayacağını savunuyor.
Çalışmanın başyazarı Nick Haber, “Buradaki mesele, ‘LLM’ler terapide kötüdür’ gibi basitleştirilemez. Asıl mesele, bu teknolojilerin terapi içindeki rolünü dikkatli ve eleştirel biçimde tanımlamak” dedi.
Kaynak: Quartz