Yapay Zekaya İlişkin Kanun Teklifi: Türkiye’deki Hukuki Gereklilikler, Etkiler ve Tartışma Alanları
- GlobalB Law

- 4 days ago
- 9 min read
1.Giriş
Yapay zekâ, artık yalnızca teknolojik bir yenilik değil; hukuk, ekonomi, kamu düzeni ve toplumsal hayatın tamamını şekillendiren temel bir altyapı hâline gelmiş durumda. Kapsama gücü, öğrenme kapasitesi ve ölçeklenebilirliği sayesinde üretimden sağlığa, eğitimden finansal sistemlere kadar hemen her alanda devrim niteliğinde fırsatlar sunuyor; verimlilik, hız ve karar destek mekanizmalarında insanlık tarihinin daha önce deneyimlemediği bir dönüşümü mümkün kılıyor. Bu büyük potansiyel, ülkeler açısından stratejik üstünlük yaratan bir rekabet unsuru hâline gelirken, bireylerin günlük yaşamında da konfor ve erişilebilirlik bakımından önemli kazanımlar yaratıyor.

Ancak bu hızlı gelişim, sağladığı geniş fırsatların yanında yeni hukuki tartışmaları, etik sınamaları ve düzenleme ihtiyaçlarını da beraberinde getiriyor. Kişilik haklarının korunması, veri güvenliği, ayrımcılık riski, içerik manipülasyonu, güvenlik tehditleri ve demokratik süreçlere etkiler gibi meseleler, yapay zekânın sunduğu imkânların yanında çözülmesi gereken yapısal sorular olarak karşımıza çıkıyor. Bu nedenle teknolojinin sağladığı büyük avantajlardan yararlanırken, aynı zamanda riskleri yönetebilecek ve dengeleyebilecek sağlam bir hukuki çerçevenin oluşturulması giderek kaçınılmaz hâle geliyor.
Türkiye’de de benzer ihtiyaçlar doğrultusunda, yapay zekâ teknolojilerinin hızla yaygınlaşmasının doğurduğu hukuki boşlukları gidermek ve olası kötüye kullanımları önlemek amacıyla Yapay Zekâya İlişkin Kanun Teklifi TBMM gündemine sunulmuştur. Teklif; yapay zekâ sistemlerinin tanımlanması, geliştirici ve kullanıcı sorumlulukları, kişilik haklarının korunması, ayrımcı veri setlerinin yasaklanması, deepfake içeriklere yönelik zorunluluklar ve kamu güvenliğini tehdit eden durumlarda idari yaptırımlar gibi kritik alanlarda düzenlemeler öngörmektedir. Türkiye’nin, bu alanda dünyanın hızla ilerleyen düzenleme trendinin gerisinde kalmaması; teknolojinin sunduğu potansiyeli sınırlamadan, ancak kötüye kullanım risklerini de etkin biçimde denetleyerek dengeli bir hukuki çerçeve oluşturması büyük önem taşımaktadır. Bu yazıda, TBMM’ye sunulan söz konusu kanun teklifini hukuki gereklilikleri, etkileri ve tartışma alanları bakımından değerlendireceğiz.
2.Teklifin Genel Çerçevesi
TBMM’ye sunulan Yapay Zekâya İlişkin Kanun Teklifi, yapay zekâ sistemlerinin hukuki statüsünü belirlemeyi ve bu sistemlerin kullanımı sırasında ortaya çıkabilecek riskleri kontrol altına almayı hedefleyen bütüncül bir yaklaşım sunmaktadır. Teklif, hem kullanıcıların hem geliştiricilerin hukuki sorumluluklarını netleştirmeyi amaçlamakta; kişilik haklarının, kamu düzeninin ve demokratik süreçlerin korunmasına yönelik yeni normlar getirmektedir. Düzenleme özellikle dört ana eksen üzerinde şekillenmektedir:
(1) Tanım ve kapsam belirleme:Teklif, Türk hukukunda ilk kez “yapay zekâ sistemi”ne ilişkin geniş ve teknik bir tanım getirerek, hangi sistemlerin bu kapsamda değerlendirileceğini açıkça ortaya koymaktadır. Böylece ileride ortaya çıkabilecek yorum farklılıklarının önüne geçilmesinin amaçlandığı görülmektedir.
(2) Ceza hukuku bakımından sorumluluk:Yapay zekâ sistemlerinin suç oluşturan içerik üretiminde kullanılması durumunda, komutu veren kullanıcının fail olarak sorumlu tutulacağı; sistemin tasarımı veya eğitimiyle bu sonuca imkân sağlayan geliştiricilerin ise artırımlı ceza ile karşılaşabileceği öngörülmektedir. Bu yaklaşım, fiilin arkasındaki insan iradesini merkeze alan klasik ceza hukuku ilkeleriyle uyumludur.
(3) Erişim engeli ve içerik kaldırma süreçleri:Kamu güvenliğini tehdit eden, kişilik haklarını ihlal eden veya deepfake niteliği taşıyan içeriklerin 6 saat içinde kaldırılması zorunluluğu getirilmiştir. Bu süre, mevcut uygulamalara kıyasla oldukça hızlı bir müdahale mekanizması öngörmekte ve içerik sağlayıcılarla geliştiricilere müşterek sorumluluk yüklemektedir.
(4) Veri setleri, ayrımcılık ve güvenlik:Ayrımcı veri setlerinin açıkça yasaklanması; anonimlik, meşruiyet ve veri güvenliği ilkelerinin yapay zekâ eğitim süreçlerinin zorunlu unsuru hâline getirilmesi amaçlanmaktadır. Teklif ayrıca BTK ve ilgili kurumlara, kamu düzenini veya seçim güvenliğini tehdit eden yapay zekâ içeriklerine hızlı müdahale yetkisi tanımaktadır.
Bu çerçevede teklif, hem teknolojinin doğurduğu riskleri yönetmeye hem de yapay zekâ temelli sistemlerin güvenli kullanımına yönelik temel bir mimari oluşturmayı hedeflemektedir. Devam eden bölümlerde, bu mimarinin unsurlarını madde bazında daha ayrıntılı biçimde ele alacağız.
3.Maddeler Bazında Hukuki Değerlendirme
3.1. Yapay zekâ sisteminin tanımı (Madde 1–5651/2)
Teklifin ilk maddesi, Türk hukukunda yapay zekâ sistemine ilişkin kapsamlı bir tanım getirmektedir. Tanım; makine öğrenmesi, derin öğrenme, yapay sinir ağları, algoritmalar ve benzeri yöntemlerle “özerk veya yarı özerk şekilde çıktı üreten” tüm modelleri içerecek şekilde geniş tutulmuştur. Bu geniş kapsam, uygulamada hem avantaj hem tartışma yaratabilecek niteliktedir. Avantajı, teknolojik gelişmelerin gerisinde kalmayan, geleceğe uyumlu bir çerçeve sunmasıdır. Öte yandan tanımın oldukça geniş olması, hangi sistemlerin gerçekten “yapay zekâ” olarak kabul edileceği konusunda uygulayıcılar bakımından yorum farklılıklarına yol açabilir. Avrupa Birliği AI Act’in daha teknik ölçütlere dayalı, risk sınıfına bağlı tanım yaklaşımı düşünüldüğünde, Türkiye’deki tanımın kapsayıcı fakat sınırları tartışmaya açık bir niteliğe sahip olduğu söylenebilir.
3.2. Kullanıcı ve geliştirici sorumluluğu (Madde 2 — TCK 125)
TCK m.125’e eklenen fıkra, yapay zekânın “hakaret” gibi suçların işlenmesinde kullanılması hâlinde komutu veren kullanıcının doğrudan fail sayılacağını düzenlemektedir. Ayrıca, sistemin tasarımı veya eğitimiyle bu fiillere imkân sağlayan geliştiricinin cezasının yarı oranında artırılması öngörülmektedir. Bu hüküm, ceza hukukunun şahsilik ilkesine ve “cezai sorumlulukta insan iradesi” yaklaşımına uygun bir çerçeve sunmaktadır. Bununla birlikte geliştirici bakımından getirilen artırımlı sorumluluk, teknik olarak hangi tasarım veya eğitim davranışlarının “suça imkân vermek” olarak değerlendirileceği konusunda belirsizlikler doğurabilir. Bu alan, özellikle inovasyonun cezai risklerle baskılanmaması için ileride ikincil düzenleme ihtiyacını gündeme getirebilir.
3.3. Erişim engeli ve içerik kaldırma yükümlülüğü (Madde 3–5651/8)
Yapay zekâ tarafından üretilen kişilik haklarına aykırı, kamu güvenliğini tehdit eden veya deepfake niteliği taşıyan içeriklerin 6 saat içinde kaldırılması zorunluluğu, teklifin en dikkat çekici düzenlemelerinden biridir. Bu süre, mevcut pratikte uygulanan erişim engeli kararlarına kıyasla oldukça hızlı ve iddialı bir müdahale mekanizması ortaya koymaktadır. Üstelik içerik sağlayıcılar ile geliştiricilere müşterek sorumluluk yüklenmesi, teknik olarak müdahale kapasitesi sınırlı olan geliştiriciler bakımından tartışmalara yol açabilir. Deepfake ile mücadele bakımından güçlü bir adım olmakla birlikte, uygulanabilirlik ve teknik gerçeklik açısından denge arayışının gerekeceği açıktır.
3.4. Ayrımcı veri setlerinin yasaklanması (Madde 4 — KVKK 12/6)
Bu madde, yapay zekâ eğitiminde kullanılan veri setlerinin anonimlik, ayrımcılık yasağı ve meşruiyet ilkelerine uygun olmasını zorunlu kılmaktadır. Ayrıca “ayrımcı veri seti kullanımı” doğrudan veri güvenliği ihlali sayılmaktadır. Bu düzenleme, Anayasa’nın eşitlik ilkesi ve KVKK’daki temel ilkelerle uyumlu olmakla birlikte, Avrupa Birliği AI Act’te yer alan “bias mitigation” yükümlülüklerine paralel bir yaklaşım sergilemektedir. Uygulamada, ayrımcılık analizlerinin nasıl yapılacağı, denetimin nasıl işleyeceği ve ihlal tespitinde teknik standartların ne olacağı ayrıca düzenlenmeyi gerektirecektir.
3.5. BTK’nın acil müdahale yetkisi (Madde 5–5809/6)
BTK’ya seçim güvenliğini veya kamu düzenini tehdit eden yapay zeka içeriklerine ilişkin acil erişim engelleme yetkisi verilmesi, teklifin güvenlik odaklı boyutunu güçlendirmektedir. Özellikle seçim dönemlerinde manipülatif AI içerikleri (örneğin deepfake videolar) karşısında hızlı müdahale gereklidir. Bununla birlikte 10 milyon TL’ye kadar idari para cezası ve geniş takdir yetkisi, ölçülülük ve hukuki öngörülebilirlik tartışmalarını beraberinde getirebilir.
3.6.Hizmet sağlayıcılar için teknik yükümlülükler (Madde 6–7545/7)
Bu madde, hizmet sağlayıcılara beş temel yükümlülük getirmektedir:— veri seti şeffaflığı,— içerik doğrulama mekanizmaları,— hallüsinasyon riskinin azaltılması,— yüksek riskli uygulamalarda insan onayı,— düzenli siber güvenlik testleri.
Bu yaklaşım, birçok ülke düzenlemesinde görülen “güvenli AI” prensiplerine paralel olup özellikle AI Act’in yüksek riskli sistemlere ilişkin yükümlülüklerini hatırlatmaktadır. Ancak Türkiye’de bu yükümlülüklerin nasıl denetleneceği, hangi teknik standartlara göre ölçüleceği ve hangi kurumun yetkili olacağı gibi sorular ileride açıklığa kavuşturulmalıdır.
3.7. Deepfake etiketleme zorunluluğu (Madde 7 — Ek Madde 5)
Teklif, yapay zekâ tarafından üretilen sahte görsel, işitsel ve metinsel içeriklerin “Yapay Zekâ Tarafından Üretilmiştir” ibaresiyle açık ve silinemez bir biçimde etiketlenmesini zorunlu kılmaktadır. Bu düzenleme, özellikle seçim güvenliği, kamuoyu manipülasyonu ve kişilik haklarının korunması bakımından oldukça önemli bir adımdır. Bununla birlikte deepfake tespitinin teknik olarak her zaman mümkün olmaması, etiketin kaldırılmasını teknik olarak imkânsız kılma zorunluluğu ve sınır aşan dijital platformlar üzerinde bu yükümlülüğün nasıl uygulanacağı önemli tartışma alanları yaratacaktır.
3.8. Suç kapsamının genişletilmesi (Madde 8–5651/8)
Yapay zekâ sistemleriyle ilişkilendirilebilecek bazı suçların 5651 kapsamına açıkça eklenmesi, kamu düzeni ve kişilik haklarının korunması adına güçlü bir hukuki araç sunmaktadır. Ancak erişim engelinin teknik olarak aşılabilirliği ve ifade özgürlüğüyle ilişkisi her zaman dengeli biçimde gözetilmelidir.
3.9. Sosyal ağ sağlayıcılarının sorumluluğu (Madde 9–5651/8A)
Bu düzenleme, yapay zekâ tabanlı sosyal ağ sağlayıcılarının bazı TCK hükümleri bakımından sorumluluk rejimine dâhil edilmesini öngörmektedir. Bu yaklaşım, sosyal medya platformlarının editoryal nitelikteki yapay zekâ üretim süreçlerindeki sorumluluğunu artırmakla birlikte, teknik denetim kapasitesi sınırlı olan yapay zekâ sistemlerine hangi yükümlülüklerin nasıl uygulanacağı sorusunu gündeme getirmektedir.
4. Dünya Genelinde Yapay Zekâ Hukuku: Ortak Eğilimler
Yapay zekânın hızlı gelişimi karşısında dünyanın farklı bölgelerinde düzenleyici yaklaşımlar farklılık göstermekle birlikte, ortak bazı eğilimlerin giderek belirginleştiği görülmektedir. Avrupa Birliği, kapsamlı ve bağlayıcı bir yapay zekâ mevzuatını yürürlüğe koyan ilk büyük bölgesel düzenleyici aktör konumundadır. AI Act, risk temelli yaklaşımıyla yapay zekâ uygulamalarını “yasaklı uygulamalar”, “yüksek riskli uygulamalar” ve “sınırlı riskli sistemler” gibi kategorilere ayırmakta; yüksek riskli sistemlere yönelik ayrıntılı denetim, şeffaflık ve güvenlik yükümlülükleri getirmektedir. Bu yaklaşım, dünyada alınan en sistematik ve bağlayıcı düzenleme modeli olduğu için çoğu ülke tarafından referans olarak görülmektedir.
Amerika Birleşik Devletleri’nde ise federal düzeyde bağlayıcı bir yapay zekâ yasası bulunmamaktadır. Bunun yerine Beyaz Saray tarafından 2023 yılında yayımlanan Executive Order on Safe, Secure, and Trustworthy AI ile federal kurumlara yönelik kapsamlı ilkeler belirlenmiş, ayrıca AI Bill of Rights başlıklı rehber doküman ile teknoloji geliştirme süreçlerinde güvenlik, ayrımcılığın önlenmesi ve açıklanabilirlik gibi temel hak odaklı prensipler ortaya konmuştur. ABD’nin düzenleme yaklaşımı daha çok sektörel, kurumlar arası dağılmış ve rehber niteliğindedir.
Birleşik Krallık ise kendisini açıkça “pro-innovation” yaklaşımı benimseyen bir ülke olarak konumlandırmıştır. Henüz kapsamlı bir yapay zekâ yasası çıkarmamış olup, farklı düzenleyici kurumların kendi alanlarında rehberler yayımlamasını tercih etmektedir. Bu çerçeve, inovasyonu kısıtlamadan esnek bir düzenleme oluşturmayı hedeflemektedir.
Kanada’da Artificial Intelligence and Data Act (AIDA) tasarı hâlindedir ve henüz yürürlüğe girmemiştir. Tasarı, yüksek etkili yapay zekâ sistemleri için yükümlülükler öngören bir çerçeve öngörmektedir; ancak şu aşamada bağlayıcı bir yasa statüsünde değildir.
Çin ise yapay zekâ alanında, özellikle algoritmik öneri sistemleri, derin sahte (deepfake) içerikler ve generatif yapay zekâ uygulamaları üzerine yürürlükte olan düzenlemelerle dikkat çekmektedir. Bu düzenlemeler, geliştiricilere yönelik şeffaflık, içerik denetimi ve güvenlik yükümlülükleri getirmekte; özellikle kamu düzeni ve güvenlik boyutu ön plana çıkmaktadır.
Bu tabloya bakıldığında, dünya genelinde düzenlemelerin farklı yöntemlerle ilerlediği görülse de ortaya çıkan ortak eğilimler nettir:— Yapay zekâ sistemlerinde şeffaflık,— Ayrımcılığın ve manipülasyonun önlenmesi,— Yüksek riskli sistemlerde insan gözetimi,— Güvenlik testleri,— Kamu düzeni ve seçim güvenliğine ilişkin hassasiyetülkelerin çoğunda tartışmasız şekilde öne çıkan başlıklardır.
Bu nedenle, dünyada şekillenen ortak prensiplerin dikkate alınması, Türkiye’nin hem teknolojik gelişimi destekleyen hem de riskleri etkin şekilde yöneten bir hukuk mimarisi kurması açısından kritik önem taşımaktadır.
5. Türkiye Açısından Hukuki ve Stratejik Etki Analizi: Uluslararası Modellerle Konumlanma
TBMM’ye sunulan Yapay Zekâya İlişkin Kanun Teklifi, yalnızca belirli maddeleri değiştirerek teknik bir düzenleme oluşturmakla kalmamakta; aynı zamanda Türkiye’nin yapay zekâ ekosisteminde nasıl bir konumlanma tercih ettiğine dair önemli işaretler vermektedir. Bu yönüyle teklif, hem iç hukuk bakımından hem de küresel düzenleme trendleri karşısında stratejik bir çerçeve oluşturma potansiyeli taşımaktadır.
5.1.Hukuki Etkiler:
Teklif, yapay zekânın tanımlanması, kullanıcı ve geliştirici sorumluluklarının açıklaştırılması, ayrımcı veri setlerinin yasaklanması ve deepfake içeriklere müdahale gibi alanlarda Türk hukukundaki mevcut boşlukları dolduran önemli hükümler içermektedir. Özellikle yapay zekânın ilk kez tanımlanması, ceza hukuku bakımından sorumluluk rejiminin belirginleşmesi ve manipülatif içeriklerle mücadeleye ilişkin hızlı müdahale mekanizmalarının öngörülmesi, hukuki öngörülebilirlik açısından olumlu bir çerçeve sunmaktadır. Ancak bu düzenlemelerin pratikte nasıl uygulanacağı, teknik standartların nasıl belirleneceği ve hangi kurumların hangi yetki sınırları içinde hareket edeceği gibi konular, ikincil mevzuatla desteklenmediği sürece belirsizliklere yol açabilir.
5.2.Teknoloji Ekosistemi ve Geliştiriciler Üzerindeki Etkiler:
Teklifin özellikle geliştiricilere yönelik getirdiği cezai ve idari sorumluluklar, hukuki riskleri artırmakla birlikte inovasyon üzerinde baskı oluşturma potansiyeli taşımaktadır. Yapay zekâ modellerinin eğitimi ve tasarımı sırasında hangi teknik davranışların “suça imkân verme” veya “ayrımcı veri seti kullanma” olarak değerlendirileceği konusunda açık standartların bulunmaması, uygulayıcılar ve girişimciler bakımından önemli bir tartışma alanıdır. Bu nedenle düzenlemenin, gelişmeyi engellemeyen ancak sorumluluk ve denetimi makul seviyede tutan bir dengeyle uygulanması gerekmektedir.
5.3. Kamu Düzeni, Seçim Güvenliği ve Deepfake Riski:
Teklif, özellikle seçim dönemlerinde ortaya çıkabilecek manipülatif yapay zekâ içerikleri karşısında hızlı müdahaleye olanak tanıyan hükümler içermektedir. Deepfake içeriklerin zorunlu şekilde etiketlenmesi, 6 saat içinde kaldırılması ve kamu düzenini tehdit eden içerikler hakkında BTK’ya geniş müdahale yetkisi verilmesi, demokratik süreçlerin korunması bakımından güçlü bir yaklaşımdır. Ancak bu yetkilerin kapsamı ve uygulanma biçimi, ölçülülük ilkesine uygun olarak dikkatle sınırlandırılmadığı takdirde ifade özgürlüğü bakımından sorun yaratabilir.
5.4.Uluslararası Modellerle Konumlanma:
Dünya genelinde yapay zekâ düzenlemelerinin farklı yaklaşımlar benimsediği görülmektedir. Avrupa Birliği AI Act, risk temelli ve bağlayıcı bir mimari oluştururken; ABD esnek, sektörel rehberlik yaklaşımını; Birleşik Krallık ise inovasyonu teşvik eden hafif dokunuşlu bir modeli; Çin ise güvenlik odaklı sıkı bir kontrol sistemini tercih etmektedir. Türkiye’nin teklifi ise bu modeller arasında karma bir pozisyon almaktadır: Ayrımcılık yasağı ve veri seti şeffaflığı bakımından AB yaklaşımıyla ortaklaşsa da, acil müdahale yetkileri ve deepfake düzenlemeleri bakımından daha güvenlik odaklı bir çizgiye yaklaşmaktadır. Geliştirici sorumluluğu ve içerik kaldırma süreleri bakımından ise ABD ve Birleşik Krallık’ın serbest piyasa odaklı modelinden daha müdahaleci bir çerçeve sunmaktadır. Bu karma yaklaşım, Türkiye’nin hem riskleri kontrol etmeyi hem de inovasyonu tamamen baskılamadan hızla düzenleme yapmayı hedeflediğini göstermektedir.
6. Sonuç ve Genel Değerlendirme
TBMM’ye sunulan Yapay Zekâya İlişkin Kanun Teklifi, Türkiye’de yapay zekâ alanında kapsamlı ve sistematik bir hukuki çerçeve oluşturma yönünde atılmış en önemli adımlardan biridir. Teklif, yapay zekâ sistemlerinin tanımlanması, kullanıcı ve geliştiricilerin sorumluluklarının belirlenmesi, ayrımcı veri setlerinin yasaklanması, deepfake içeriklerin açık şekilde etiketlenmesi ve kamu düzenini tehdit eden durumlarda hızlı müdahale mekanizmaları gibi alanlarda kayda değer yenilikler içermektedir. Bu yönüyle düzenleme, Türk hukukunda uzun süredir hissedilen boşlukları doldurmaya yönelik güçlü bir başlangıç niteliği taşımaktadır.
Teklifin en önemli katkılarından biri, yapay zekânın hukuken tanımlanmasıyla birlikte, hangi sistemlerin hangi yükümlülüklere tabi olacağının daha öngörülebilir bir hâle gelmesidir. Ayrıca, kullanıcı ve geliştirici sorumluluklarının açıklaştırılması, ceza hukuku bakımından belirsizlikleri azaltarak insan iradesini merkeze alan bir yaklaşımı güçlendirmektedir. Deepfake içeriklere yönelik müdahale mekanizmaları ve 6 saat içinde erişim engeli/kaldırma yükümlülüğü ise özellikle seçim güvenliği, kamu düzeni ve kişilik haklarının korunması bakımından kritik bir koruma alanı yaratmaktadır. Buna ek olarak, ayrımcı veri setlerinin açıkça yasaklanması, Türkiye’nin dijital alanda Anayasa’nın eşitlik ilkesini somutlaştırması bakımından önemli bir adımdır.
Bununla birlikte, teklifin uygulama boyutu bazı önemli soru işaretlerini beraberinde getirmektedir. Geliştiricilere yönelik cezai sorumlulukların sınırları, “suça imkân sağlama” kavramının teknik olarak ne şekilde belirleneceği, şeffaflık ve veri seti standartlarının kim tarafından tanımlanacağı, deepfake etiketlemesinin teknik anlamda nasıl denetleneceği ve 6 saatlik kaldırma süresinin pratikte nasıl işletileceği gibi konular hâlen yanıtsızdır. Bu alanlarda netlik sağlanmadığı takdirde, düzenlemenin amacı olan öngörülebilirlik zayıflayabilir ve özellikle teknoloji girişimleri açısından hukuki risklerin artmasına yol açabilir. Dolayısıyla teklifin, ikincil mevzuat, teknik rehberler ve sektör spesifik düzenlemelerle desteklenmesi zorunludur.
Uluslararası alana bakıldığında, Türkiye’nin bu teklifle karma fakat pragmatik bir yaklaşım benimsediği görülmektedir. Düzenleme; ayrımcılık yasağı, veri seti şeffaflığı ve yüksek riskli uygulamalarda kontrol mekanizmaları açısından Avrupa Birliği AI Act’e yaklaşırken; güvenlik ve kamu düzeni ekseninde Çin’in müdahaleci modeline daha yakın hükümler içermektedir. Aynı zamanda düzenleme, ABD ve Birleşik Krallık’ın inovasyonu tamamen baskılamayan çerçevelerinden de izler taşımaktadır. Bu durum, Türkiye’nin tek bir modele bağlı kalmadan, kendi ihtiyaçlarına uygun hibrit bir düzenleme anlayışı geliştirdiğini göstermektedir.
Sonuç olarak, Yapay Zekâya İlişkin Kanun Teklifi Türkiye için yalnızca teknik bir düzenleme değil; dijital egemenlik, ekonomik rekabet gücü, kamu güvenliği ve temel hakların korunması bakımından stratejik bir pozisyonlanma aracıdır. Düzenleme güçlü bir başlangıç oluştursa da başarısı, teknolojik gelişimi yavaşlatmadan riskleri yönetebilecek dengeli, ölçülü ve teknik gerçeklikle uyumlu bir uygulama çerçevesinin oluşturulmasına bağlıdır. Türkiye’nin bu alanda süreklilik gösteren bir düzenleme politikası izlemesi hâlinde, yalnızca iç hukukunu güçlendirmekle kalmayıp, bölgesel ve küresel ölçekte referans alınan bir yapay zekâ hukuku modeli geliştirmesi de mümkün olacaktır.
GlobalB Law
Av.Sara Civiler


Comments