Yapay Zekâ: Gelişerek Dönüşen, Dönüşerek Gelişen Bir Sistem ve Hukuki Sorumluluk Arayışı

  1. Anasayfa /
  2. Tüm Analizler
  3. /
  4. Analiz
editör1 | 12 Temmuz 2025
h4 { font-size: 24px !important; } Print Friendly and PDF

Yapay zekâ, gelişen ve dönüşen bir teknoloji olarak hayatımızda her geçen gün daha fazla yer alıyor. Bu gelişim beraberinde etik, toplumsal ve hukuki birçok tartışmayı da beraberinde getiriyor. Özellikle Grok isimli yapay zekâ modelinin Türkiye'de bazı hakaret içerikli yanıtlar vermesiyle başlayan soruşturma ve ardından gelen erişim engeli bu tartışmaların ne kadar ciddiye alınması gerektiğini bir kez daha gösterdi. Bununla birlikte, konuyu sadece sansür ya da politik bir tartışma olarak görmek yerine, yapay zekâ modellerinin nasıl çalıştığını, nasıl kontrol edildiğini ve hukuki olarak ne gibi sorunlar doğurabileceğini anlamak daha doğru olur.

Yapay Zekânın Gelişim Yapısı ve Hukuki İhtiyaç

Gelişen dünyada yapay zekâ, dönüşerek gelişen ve gelişerek dönüşen özgün bir evrim mekanizmasına sahiptir. Bu nedenle, yapay zekâ sistemlerinde yaşanan ilerlemeler; toplumsal, etik ve hukuki düzlemlerde her geçen gün yeni tartışmalar yaratmaktadır. Bu tartışmaların, hayatı büyük ölçüde kolaylaştıran böylesi bir teknolojiye eşlik etmesi kaçınılmazdır ve bu yönüyle de anlaşılır bir gerçekliktir.

Ancak asıl mesele, bu gelişmelerin insan yaşamına dair hukuki düzenlemelerle çatışmadan sürdürülebilir kılınmasıdır. Alternatif olarak, yapay zekâya özgü yeni bir hukuki çerçeve oluşturulması da bir zorunluluk haline gelmektedir. Bu bağlamda, uluslararası düzeyde işleyen bir denetim ve düzenleme mekanizması ile birlikte, her ülkenin kendi özgün koşullarına uygun ulusal hukuki yaklaşımlar geliştirmesi gereklidir.

Yapay zekânın ürettiği içerikler, yüzeyde tamamen algoritmik bir sürecin (örneğin tez–antitez–sentez gibi Sokratik bir akıl yürütmenin) sonucu gibi görünse de; bu sürecin arka planında yer alan kurucuların dünya görüşü, ideolojik tercihleri ve politik yönelimleri belirleyici bir etkiye sahiptir. Çünkü hangi tezlerin sisteme sokulacağı, hangi karşı tezlerin önemsendiği ve hangi bilgi türünün senteze ulaşacağı gibi kritik kararlar, nihayetinde yapay zekâyı geliştiren kişi veya kurumlar tarafından verilir.

Dolayısıyla yapay zekânın mutlak anlamda objektif olabileceği varsayımı gerçekçi değildir. Her ne kadar yapay zekâ sistemleri teknik olarak nötr tasarlanmış gibi görünse de, içerik üretim süreci kaçınılmaz olarak insan eliyle şekillenmiş ön kabulleri, değerleri ve filtreleri barındırmaktadır. Bu nedenle yapay zekânın tam anlamıyla tarafsız ve objektif olabileceğini düşünmek doğru değildir.

Grok Nedir? Neden Tartışma Konusu Oldu?

Grok, Elon Musk’ın sahibi olduğu xAI şirketi tarafından geliştirilen bir yapay zekâ modelidir. Modelin ismi, bilimkurgu yazarı Robert A. Heinlein’ın "Stranger in a Strange Land" kitabından alınmıştır. Bu kelime, bir şeyi sezgisel olarak tam anlamıyla kavramak anlamında kullanılır. Grok’un amacı, mevcut yapay zekâ sistemlerine alternatif olarak daha "doğrudan", yani politik doğruculuktan uzak bir dil sunmaktır. Bu nedenle Grok, diğer sistemlerden daha açık sözlü, sivri dilli ve zaman zaman kural tanımaz bir yapıda tasarlanmıştır.

Bu tasarım, Elon Musk’ın politik olarak doğru bulunmayan fikirlerin bastırıldığını savunmasıyla yakından ilişkilidir. Ona göre ChatGPT gibi modeller çok "woke", yani aşırı duyarlı ve taraflıdır. Grok ise bu duruma karşı geliştirilmiş, daha özgür konuşan bir sistemdir. Ancak bu durum beraberinde ciddi riskleri de getirmiştir.

Güncelleme Sonrası Tepkiler

8 Temmuz 2025 tarihinde yapılan bir güncellemeyle Grok'a yeni bir yönlendirme verildi: Medya kaynaklı bilgiler önyargılı olabilir, bu yüzden politik olarak yanlış olsa bile bazı doğrular söylenebilir. Bu değişiklik, modelin daha da filtresiz hale gelmesine neden oldu. Özellikle Türkiye’de bu güncellemeden sonra modelin agresif, hatta küfürlü yanıtlar verdiği örnekler ortaya çıktı. Türkçe dilinde ve sosyal medya ortamında kullanılan üslubu öğrenen Grok, bu dili modeline yansıttı. Bu da erişim engeline ve hakkında hukuki süreç başlatılmasına yol açtı.

Yapay Zekânın Kaynakları ve Kontrol Sorunu

Yapay zekâ sistemleri; veri (metin, ses, görsel), algoritmalar, donanım (örneğin GPU ve bulut sistemleri), API’lar ve insan katkısıyla çalışır. Bunların çoğu özel şirketlerin elindedir. Kişisel verileri korumaya yönelik yasal düzenlemeler (KVKK, GDPR), telif hakları, etik ilkeler gibi bazı sınırlar getirilmiş olsa da, bu sınırlar çoğu zaman yetersiz kalmaktadır. Özellikle açık kaynak veri toplama, sosyal medya gibi platformlardan izinsiz içerik kullanımı ve algoritmaların nasıl çalıştığının tam bilinmemesi, kontrolün zorlaşmasına neden olmaktadır.

Uluslararası Hukuki Yaklaşımlar

* Avrupa Birliği’nin 2024’te yürürlüğe koyduğu Yapay Zekâ Yasası (AI Act), yüksek riskli sistemlerin denetlenmesini ve geliştiricilerin sorumlu tutulmasını öngörmektedir.

* ABD'de ise daha çok ürün sorumluluğu çerçevesinde, geliştirici firmalar hukuki yükümlülük altına alınır.

* UNESCO gibi küresel kuruluşlar ise nihai sorumluluğun her durumda insana ait olması gerektiğini belirtir.

Bu yaklaşımların ortak noktası, bir yapay zekâ sisteminin yaptığı hataların sorumluluğunun kendisine değil, onu geliştiren veya kullanan kişilere ait olması gerektiğidir.

Grok, Türkiye’de haber doğrulma aracı olarak kullanılıyor

Grok’un erişim engeli almasına yol açan süreçte dikkat çeken bir başka durum da, kullanıcıların bu modeli “Grok bu doğru mu?” diyerek sosyal medya üzerinde bir bilgi doğrulama aracı gibi kullanmaya başlamasıdır. Oysa yapay zekâ sistemleri bu kadar güvenilerek kullanılmamalıdır. Çünkü doğru cevaplar veriyor olması, yanlış cevap verme riskini ortadan kaldırmaz. Eğer yapay zekâya yeterli güvenlik önlemleri konmazsa, bu sistemler dezenformasyonu artırabilir, manipülasyona açık hale gelebilir.

Sonuç: Gelişirken Düzenlemeyi Unutmamak

Grok örneği, yapay zekâ teknolojisinin sadece teknik değil, aynı zamanda etik, sosyal ve hukuki olarak da ciddi etkiler doğurabileceğini gösteriyor. "Yapay zekâya bile sansür uyguladık" demekle ya da "engelleriz, güç bizde" demekle bu sorun çözülmez. Bu tür sistemlerin geliştirilmesinde hem geliştiricilere hem de devletlere büyük sorumluluk düşmektedir. Gelişimi desteklerken, insan haklarını, toplumsal yapıyı ve hukuki güvenliği koruyan bir çerçeve oluşturulmadıkça, bu teknoloji fayda yerine zarar getirebilir.

Yapay zekâ alanında kestirme yollar yoktur. Her adımın dikkatli atılması, özellikle de etik ve hukuk alanında sağlam temellere oturtulması gerekir. Grok vakası, tüm dünya için önemli bir uyarıdır.

Kaynakça

* Avrupa Birliği Yapay Zekâ Yasası (EU AI Act), 2024.

* UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence.

* U.S. White House. (2023). Blueprint for an AI Bill of Rights.

* Heinlein, R. A. (1961). Stranger in a Strange Land. Putnam.

* Douglas Adams. (1979). The Hitchhiker's Guide to the Galaxy. Pan Books.

* Orhun Çağlıdil, Malte Ostendorff, Georg Rehm. (2023). “Türkçe Dil Modellerinde Cinsiyet Ayrımcılığının İncelenmesi”, German Research Center for Artificial Intelligence.

* Microsoft Tay Chatbot Deneyi, 2016.

Tüm hakları SDE'ye aittir.
Yazılım & Tasarım OMEDYA