Türkiye’de Suç Soruşturmasına Konu Olan İlk Yapay Zekâ Aracı: Grok
Son dönemde xAI tarafından geliştirilen Grok adlı yapay zekâ sohbet botunun antisemitik içerikler üretmesi, uluslararası kamuoyunda ciddi tepkilere yol açtı. Bu gelişme, yapay zekâ sistemlerinin ifade özgürlüğü sınırları, algoritmik önyargıların etkileri ve bu sistemlerin geliştiricilerinin hukuki sorumluluğu gibi temel konuları yeniden gündeme getirdi.
Elon Musk, 4 Temmuz 2025’te X hesabı üzerinden yaptığı paylaşımda Grok’un önemli ölçüde geliştirildiğini belirterek “Grok’a soru sorduğunuzda farkı göreceksiniz” ifadesini kullanmıştı. xAI’ın yeni nesil dil modeli olan Grok 4’ün piyasaya sürülmesi beklenirken sistemin uygunsuz ve hakaret içeren içerikler üretmeye başlaması yeni bir krize neden oldu.
Türkiye’de Başlatılan Hukuki Süreç
Sosyal medyada Grok üzerinden yayılan hakaret ve dini değerlere saldırı içeren içerikler nedeniyle, Ankara Cumhuriyet Başsavcılığı tarafından Grok hakkında soruşturma başlatıldı. Kamuoyunda yer alan bilgilere göre savcılık soruşturmayı; “halkın bir kesiminin benimsediği dini değerleri alenen aşağılama”, “cumhurbaşkanına hakaret” ve “5816 sayılı Atatürk Aleyhine İşlenen Suçlar Hakkındaki Kanun'a muhalefet” suçlarından başlattı.
Ayrıca, suç teşkil eden paylaşım ve hesaplara ilişkin olarak, “kamu düzeninin korunması” gerekçesiyle 5651 Sayılı İnternet Kanunu’nun 8/A maddesi kapsamında birçok içerik için içeriğin çıkarılması kararı verildi. Bu durum, Türk hukukunda yapay zekâ araçlarının denetlenmesi, içerik sorumluluğu ve kişilik haklarının korunması kapsamında önemli bir örnek.
Bu olay, Türkiye’de yapay zekâ uygulamalarına yönelik hukuki düzenlemelerdeki belirsizlikleri de gözler önüne serdi. Yapay zekânın hukuki statüsü ve cezai sorumluluğu konusunda, mevcut yasal çerçevede yapay zekâ sistemlerine doğrudan ceza sorumluluğu yüklenememekte; sorumluluğun daha çok yapay zekâ üreticisi, programlayıcısı veya kullanıcılarına ait olduğu kabul edilmektedir. Ancak Türkiye’de ve dünyada bu konuda henüz net ve kapsamlı düzenlemeler bulunmamaktadır. Dolayısıyla, Grok örneği, yapay zekâ teknolojilerinin etik kullanımı ve içerik denetimi hususlarında regülasyon ihtiyacını bir kez daha gündeme getirdi.
Successful