.
Ekonomik Göstergeler
Dolar
29.84 ₺
Euro
32.45 ₺
GBP
1.124 ₺
JPY
7.842
Ana Sayfa
Gündem
Spor
Köşe Yazıları
Podcast

Hukuki Süreçlerde Yeni Bir Sorunsal: “Yapay Zeka Halüsinasyonu”

Okuma Süresi: 4 Dakika
Toplam Okunma: hesaplanıyor...
Hukuki Süreçlerde Yeni Bir Sorunsal: “Yapay Zeka Halüsinasyonu”
Paylaş:
Türkiye Büyük Millet Meclisi’nde, yapay zekanın kazanımlarına yönelik adımların belirlenmesi, bu alanda hukuki altyapının oluşturulması ve yapay zeka kullanımının barındırdığı risklerin önlenmesine ilişkin tedbirlerin belirlenmesi amacıyla bir Meclis Araştırma Komisyonu kurulmuştur. Bu komisyona üye seçimine dair TBMM kararı, 16 Ocak 2025 tarihli Resmi Gazete'de yayımlanmıştır. Komisyonun gündeminde yer alacağı düşünülen önemli konulardan biri, yapay zeka teknolojilerinin yanlış bilgi üretme potansiyeli ve üretilen bu bilgilerin kullanım etiğidir. Zira, yapay zeka, son yıllarda birçok alanda devrim niteliğinde yenilikler getirirken, sorumlu olmayan yapay zeka kullanımı ve yapay zekanın yanıltıcı ve hatta yanlış bilgi üretme eğilimi, bilhassa hukuk gibi bilgi temelli alanlar için ciddi riskler barındırmaktadır.    Bu noktada karşımıza çıkan “yapay zeka halüsinasyonu” kavramı, bir yapay zeka modelinin gerçekte hiç olmayan ya da yanlış olan bilgileri gerçekmiş gibi üretmesi durumudur. Bu durum, modelin eriştiği verilerdeki eksiklikler nedeniyle oluşabilir. Özetle, yapay zeka, sorulara ya da araştırmalara ilişkin yanıtlar ortaya koyarken, bu yanıtlar, zaman zaman, asılsız ve uydurma bilgiler içerebilir. Yapay zeka halüsinasyonuna, yargı süreçlerini ilgilendiren önemli bir örnek,  ABD Başkanı Donald Trump'ın avukatlığını da yapmış Michael Cohen'in yaşadığı olaydır. Michael Cohen, Google'ın yapay zeka sohbet robotunu kullanarak bazı hukuki referanlara erişmiş ve bunları incelemesi için bir meslektaşına iletmiştir. Ancak, meslektaşı söz konusu referansların doğruluğuna, gerçekten var olup olmadığına ilişkin bir araştırma çalışması yapıp gerekli teyidi sağlamadan, bilgileri Federal Hakime sunmuştur. Netice itibarıyla, Federal Mahkemeye sunulan bu hukuki referansların aslında yapay zeka tarafından uydurulduğu, gerçek olmadığı ortaya çıkmıştır. (daha fazla bilgi için bkz: https://www.theguardian.com/us-news/2023/dec/29/michael-cohen-trump-lawyer-fake-citations) Yapay zeka halüsinasyonlarına dair bu örnek olay, aslında yargılama süreçleri için bir uyarı niteliğindedir. Zira, yapay zekanın yanlış veya asılsız bilgilerle ürettiği emsal kararların ya da belgelerin dikkate alınması, yargılamaların seyrini etkileyebilir. Bu tür risklerin önüne geçmek için, yapay zeka kullanımına dair etik ve yasal çerçevelerin oluşturulması gerektiği artık tüm dünyada kabul görmüş durumdadır. Hukuk gibi alanlara yapay zekanın sorumlu şekilde kullanılmasını sağlamak için, kullanım kuralları ve denetim mekanizmaları oluşturulmalı ve uygulanmalıdır. Ayrıca, üniversitelerin de, ilgili bölümlerinde, yapay zeka kullanımı ile ilgili gerekli dersleri müfredata eklemesi gerektiği açıktır. Yapay zeka teknolojilerinin hukuk alanındaki kullanımında, yanlış ve asılsız bilginin dayanak alınmasından kaynaklanabilecek risklerin farkında olunması ve bu risklere karşı gerekli tedbirlerin alınması gereği göz ardı edilmemelidir. Bu doğrultuda, TBMM bünyesinde kurulan Yapay Zeka Araştırma Komisyonu'nun, özellikle mahkemelere sunulacak emsal kararlar, dilekçe içerikleri ve diğer hukuki belgelerde yapay zekanın kullanımına ilişkin etik ve yasal çerçeveyi belirleyecek, “sorumlu yapay zeka kullanımı” farkındalığını arttıracak çalışmaları önem arz edecektir. Bu bağlamdaki düzenleyici çalışmalar, yargı süreçlerinin seyrini güven altına alma ve teknoloji ile hukuku uyumlu hale getirme adına değerli bir ilerleme sağlayacaktır.