Yapay Zeka Sınır Tanımaz Ama Devletler Tanır: Sovereign AI Nedir, Neden Gereklidir?
You can explore the English versions of my published articles on my Medium profile at https://lnkd.in/eETwD-Mn Feel free to dive into my insights and discussions on technology, innovation, and digital transformation.
1. Giriş: Dijital Sınırlar ve Egemenlik Yeniden Yazılıyor
- Veri, algoritma ve egemenlik üçgeni
- “Siber Vatan” kavramı ve yapay zekanın yeni sınır ihlalleri
- Sovereign AI: Teknolojik değil, jeopolitik bir mesele
2. Sovereign AI Nedir, Ne Değildir?
- Tanım: Egemen veriyle, yerel modelle, kendi topraklarında çalışan yapay zeka
- Ne değildir? GPT'ye filtre çekmek, Google Translate’e Türk bayrağı koymak değildir
- “Kendi LLM’ini yap!” demek kolay mı?
3. Neden Sovereign AI? 5 Stratejik Sebep
- Veri Egemenliği: Sağlık, savunma, finans verileri kimdeyse güç ondadır
- Kültürel ve Dilsel Uyumluluk: Batı merkezli modellerin bağlam hataları
- Gizlilik ve Güvenlik: Dışa açık API’lerle kamuya ait veriler nasıl riske giriyor?
- Algoritmik Tarafsızlık: Kendi kültür kodlarına sahip bir model mümkün mü?
- Kritik Altyapılarda Bağımsızlık: Cloud vendor lock-in tuzağı
4. Dünya Ne Yapıyor? Egemen AI Girişimleri
- Fransa: Mistral – Açık kaynak ama Fransa’nın kontrolünde
- BAE: Falcon – Petrolden yapay zekaya geçişin simgesi
- Çin: WuDao & ERNIE – Tamamen kapalı devre, devlet kontrolü
- Almanya: LEAM & Aleph Alpha
- Türkiye: TÜBİTAK BİLGEM LLM, TurkLM – Başlangıç seviyesinden stratejiye
5. Sovereign AI’ın İnşasında Zorluklar ve Yanlış Anlamalar
- Her ülke GPT yapamaz mı? Tamam, ama GPT’ye yem de olmayalım
- Açık kaynak model mi, sıfırdan geliştirme mi?
- Sadece model değil, altyapı da “egemen” olmalı: Sunucudan GPU’ya kadar
- “Egemen AI” izolasyon değil, “kontrollü dışa açıklık”tır
6. Türkiye İçin Yol Haritası
- Kamu: TÜBİTAK, ULAK, ASELSAN, BTK, Dijital Dönüşüm Ofisi
- Özel sektör: Startuplar, bankalar, holdingler ve veri sahibi kurumlar
- Öneri: 2025 Ulusal Yapay Zeka Stratejisine “Sovereign AI” faslı
- Açık kaynak + Kapalı devre = Hibrit Egemenlik Modeli
- Regülasyon: “Veri, ülke dışına çıkmadan işlenebilir” düzenlemeleri
7. Sonuç: Egemenlik, Yeni Bir Anlam Kazanıyor
- Toprak ve bayrak kadar veri ve algoritmalar da “milli”dir
- Sovereign AI, sadece teknoloji değil; bir duruş meselesidir
- Sorulacak son soru: “Sizin yapay zekanız kimden emir alıyor?”
1. Giriş: Dijital Sınırlar ve Egemenlik Yeniden Yazılıyor
Bir ülkenin egemenliği, sadece tankla, topla, tüfekle değil; artık veriyle, algoritmayla ve bilişsel altyapıyla korunuyor.
Daha açık söyleyelim: Bugün topraklarınızın üzerinde gölge veren uydular size ait olmayabilir. Ülkenizin çocukları, dış menşeli algoritmalarla eğitiliyor; doktorları, yargıçları ve bürokratları bu algoritmalara güveniyor. Veriniz dışarıda, kararlar içeride veriliyor. İşte bu, modern egemenlik krizinin tanımıdır.
Artık mesele sadece “bizim verimiz yurt dışına gitmesin” değil. Asıl mesele, “biz o verilerle kendi zekâmızı üretebiliyor muyuz?” Yani mesele sadece bir güvenlik meselesi değil — bu, doğrudan bir varlık meselesi.
Veri, Algoritma ve Egemenlik Üçgeni
Egemenliğin klasik tanımı şu şekildeydi:
“Bir devletin kendi toprakları üzerindeki mutlak otoritesi.”
Ama dijital çağda artık o topraklar sadece coğrafi değil. Bugün egemenliğin üç yeni ayağı var:
Veriye Sahip Olmak
O veriyi işleyebilecek algoritmayı geliştirebilmek
Karar süreçlerini bu yerli zekâya emanet edebilmek
Bu üçü yoksa, bağımsızlık sadece bir söylemdir. Bugün bir ülke, başkalarının yazdığı modeli “kiralayarak” yapay zeka çözümü üretiyorsa; o ülkenin ne kadar “bağımsız” olduğu ciddi bir soru işaretidir. Veriyi sen üretiyorsun ama sonuçları başkası derliyor, değerlendiriyor, yorumluyor. Ve belki de sana karşı kullanıyor.
Bu tablo, bir sektör problemi değil. Bu, bir devlet refleksi gerektiren durumdur.
Siber Vatan ve Yapay Zekânın Sessiz İhlalleri
“Siber vatan” kavramı birkaç yıl önce havalı bir tabir gibi görünüyordu. Bugün ise tam anlamıyla jeopolitik bir savaş alanıdır. Üstelik tanklar, roketler ya da savaş gemileri yok burada. Silahlar; API çağrıları, veri paketleri, model parametreleri.
Bu yeni savaşta işgal sessizdir. Kimse radar görmez, siren duymaz. Ama bir gün bir hukuk sisteminizin ChatGPT’den kopyalanmış bir etik filtresiyle işlemeye başladığını fark edersiniz. Eğitim müfredatınız, sağlık sisteminiz ya da ekonomi politikalarınız, fark etmeden “başka bir kültürün algoritmik öncelikleriyle” şekillenmeye başlar.
İşte o gün, sınır çoktan geçilmiştir.
Sovereign AI: Teknolojik Değil, Jeopolitik Bir Mesele
Egemen Yapay Zeka (Sovereign AI) Nedir?
Egemen Yapay Zeka, bir ülkenin kendi veri kaynaklarını, altyapılarını, insan gücünü ve kurumsal iş birliklerinikullanarak; dışa bağımlı olmadan, kendi ihtiyaç ve değerleri doğrultusunda yapay zeka sistemleri geliştirme ve işletme yeteneğidir. Bu sadece teknik bir faaliyet değil; kültürel, hukuki ve stratejik bir duruş anlamına gelir. Model seninse, karar da senindir. Değilse, sadece başkasının zekasına güvenerek yönetilirsin.Sovereign AI, çoğunun zannettiği gibi bir yazılım geliştirme projesi değildir. Bu bir egemenlik iddiasıdır.
Bu konu teknik olduğu kadar stratejiktir. Teknoloji olduğu kadar kültüreldir. Bu mesele, “Chatbot yapalım mı?” meselesi değildir. Bu mesele, “Türkiye’nin gelecekte hangi zekayla yönetileceği” meselesidir.
Eğer bu zeka bizim verimizle, bizim dilimizle, bizim değerlerimizle eğitilmiyorsa; kim eğitiyorsa, o yönetiyor demektir.
Ben bu yazıda, bu meseleyi tüm boyutlarıyla —teknik, siyasi, stratejik ve kültürel— ele alacağım. Abartmıyorum: Bu konu, benim için bir “teknoloji yazısı” değil, bir bağımsızlık manifestosudur.
Ve şimdi, bunu anlatmaya başlıyoruz.
2. Sovereign AI Nedir, Ne Değildir?
Tanım: Egemen Veriyle, Yerel Modelle, Kendi Topraklarında Çalışan Yapay Zeka
Sovereign AI dediğimiz kavram; ne yapay zeka modası, ne Ar-Ge şovu, ne de “bizim de bir botumuz var” özentiliği değildir.
Bu kavramın gerçek tanımı şudur:
Sovereign AI, bir ülkenin kendi egemen verisiyle, kendi fiziksel altyapısında, kendi kültürel ve dilsel kodlarıyla eğittiği ve kendi kontrolünde tuttuğu yapay zeka modelidir.
Bu tanımı üç parçaya ayıralım:
Egemen Veri: – Sağlık verisi senin mi? – Vergi kayıtları nerede? – Savunma sanayi e-postaları hangi dil modeliyle yazılıyor? Eğer bu veriler dış sistemlere akıyorsa, Sovereign AI hayaldir.
Yerel Model: – Açık kaynak bir LLM alıp gerçekten eğittin mi? – Eğittiğin veri Türkiye’ye mi ait? – Türkçeyi anlayan değil, Türk gibi düşünen bir model mi ortaya çıktı?
Kendi Topraklarında Çalışmak: – Modelin inference’ı Türkiye’de mi yapılıyor? – Cloud altyapısı yurtiçinde mi? – Güncellemeleri kim kontrol ediyor? “Sunucular Frankfurt’ta ama güvenli” diyen varsa, söyle ona:
Sovereign AI bu anlamda bir simge değil, bir sistemdir. Ve bu sistemin her bileşeni; veri, model, işlem, sunucu ve kültür temelli olarak yerli olmak zorundadır. Yoksa "AI var bizde de" diyene sadece güleriz.
Ne Değildir? GPT’ye Filtre Çekmek, Google Translate’e Türk Bayrağı Koymak Değildir
Önce şunu netleştirelim sevgili dostum: Sovereign AI bir makyaj değildir. GPT-4'ün üstüne üç filtre, beş denetleyici, bir tane de "merhaba kardeşim" demesi için prompt koyduk diye yerli model üretilmiş olmaz.
Aşağıdakiler Sovereign AI değildir:
- GPT’yi Türkçe konuşacak şekilde fine-tune etmek
- API isteklerini Türkiye’den göndermek
- Chatbot’un arka planına Ayasofya fotoğrafı koymak
- “OpenAI ile iş birliği içinde çalışıyoruz” demek
- Verileri Türkiye'den alıp modelin eğitimi için Palo Alto’ya yollamak
- “TÜRK” adını koyup aslında inference’ı AWS US-East’ten yapan sistemler
Yok böyle bir Sovereign AI. Olsa olsa lisanslı sömürge chatbotu olur. Ve bunu “yerlilik” diye pazarlamak da kamuoyuna yapılmış teknik manipülasyondur.
“Kendi LLM’ini Yap!” Demek Kolay mı?
Evet, kabul edelim. Bu iş öyle kolay değil. Yani “bir LLM yapalım” deyince hemen TÜBİTAK’tan üç mühendis, arkaya birkaç GPU dizip 2 ayda GPT-4 yapamazsın.
Bu işin zorlukları var:
- Veri seti temini: Türkçe web arşivi, gazete, hukuk metni, bilimsel yayınlar vs.
- Dil modeline uygun tokenizer ve mimari: İngilizceye göre daha karmaşık dil yapısı
- GPU & Compute altyapısı: LLM eğitimi demek binlerce saatlik yüksek işlemci gücü
- Fine-tuning ve Reinforcement Learning (RLAIF vs RLHF): İnsanlarla sürekli model güncelleme
- Denetim & Uyumluluk: Yanıt güvenliği, dezenformasyon, manipülasyon riskleri
Ama…
Zor olması, yapılmayacağı anlamına gelmez. Çünkü Sovereign AI, “yapılabilir” olduğu için değil, “yapılmak zorunda” olduğu için gündemdedir.
Kaldı ki artık sıfırdan bir GPT üretmek yerine, Mistral, LLaMA, Falcon gibi açık kaynaklı modellerle çok daha verimli hibrit yapılar kurulabiliyor. Yeter ki niyet olsun, vizyon olsun, strateji olsun. Proje değil, irade meselesidir bu.
Şimdi soruyorum: Yapay zeka çağında "milli" olmanın ölçüsü nedir? Savunma sanayi mi? O zaten zorunlu. Peki ya karar destek sistemlerin, sağlık algoritmaların, eğitim botların? Kimin beynini kullanıyorlar?
Cevap buysa: “ChatGPT” O zaman geçmiş olsun dostum. Milli zekâ yerine kiralık algoritma kullanıyorsun demektir.
3. Neden Sovereign AI? 5 Stratejik Sebep
1. Veri Egemenliği: Sağlık, Savunma, Finans Verileri Kimdeyse Güç Ondadır
Veri, bugün sadece bir ham madde değil; bir ülkenin sinir sistemi, zekası ve refleksidir. Stratejik kararların, kriz yönetiminin, kamu politikalarının arkasındaki görünmez omurgadır. Yani şunu açıkça söyleyelim:
Bir ülkenin verisini kim işliyorsa, aslında o ülkenin geleceğini de o şekillendirir.
Bugün Türkiye’nin sağlık sisteminden savunma projelerine, finans analizlerinden lojistik haritalarına kadar her şey — evet her şey — veri üzerinden akıyor. Peki ama bu veriler nerede işleniyor? Kimlerin algoritmasından geçiyor? Hangi kültürel kodlarla anlamlandırılıyor?
Sevgili dostum, hadi birlikte şu soruları soralım:
Sağlık Bakanlığı'nın yapay zeka destekli teşhis sistemleri, bu verileri hangi modele yolluyor?
Merkez Bankası’nın ekonomik senaryoları, hangi yabancı cloud sunucusunda çalışıyor?
Savunma sanayimizin iç yazışmaları hangi dil modeliyle özetleniyor?
Ben sana söyleyeyim: Eğer bu sistemler Amazon’un, Google’ın, Microsoft’un ya da OpenAI’nin modellerine “güveniyoruz” diye bağlanmışsa…
O zaman karar alma mekanizması bizde değil, veriyi işleyendedir.
“Yani veriyi biz üretiyoruz, ama zekayı başkası yazıyor. Güzelmiş(!) Çileği biz ekiyoruz, reçeli onlar yapıyor. Hem de bizim tarlamızda...”
Bana göre bu durum stratejik saflıktır. Hatta daha ileri gideyim: Yapay zeka üzerinden veri işleme hakkını devretmek, bir tür dijital kapitülasyondur. 19. yüzyılda limanlar veriliyordu, şimdi veri merkezleri.
Düşünsene: Veri senin, kullanıcı senin, sistem senin... Ama işlem başka ülkede yapılıyor. Model eğitimi onlara ait, inference onlara ait, optimizasyon zaten onların standartlarında. E bu durumda AI senin mi, onların mı?
Sovereign AI burada bir teknoloji tercihi değil, bir varoluş refleksi haline gelir. Egemenlik, “kendi zekanı eğitebilme” kapasitesidir.
Ve unutma: Veri egemenliği olmadan yapay zeka kalkınması, başkasının tarlasında çalışıp kendi çocuğunun karnını doyurmayı umut etmeye benzer. Toplarsın, belki alkış alırsın, ama hiçbir şeye sahip olamazsın.
Sonra da dönüp, “Biz neden unicorn çıkaramıyoruz?”, “Neden globalde Türk yapay zekâsı yok?” diye sormaya kalkarsın. Cevap çok basit:
Çünkü veri senin, ama irade senin değil.
2. Kültürel ve Dilsel Uyumluluk: Batı Merkezli Modellerin Bağlam Hataları
Yapay zeka modelleri sadece dilleri anlamaz. Düşünce kalıplarını, değer yargılarını, kolektif bilinçaltını da öğrenir. Ve öğrenme süreci, maruz kaldığı veriyle şekillenir.
Bugün piyasada “en güçlü” denen büyük dil modellerinin tamamı, ağırlıklı olarak şu kaynaklarla eğitilmiştir:
İngilizce Wikipedia
Reddit forumları
New York Times ve benzeri Batı medyası
ABD ve AB hukuk metinleri
Batı merkezli felsefe, popüler kültür ve bilim dili
Yani bu modellerin dünyayı tanıma biçimi; Amerikan liberalizmi, Avrupa sekülarizmi ve Batı epistemolojisiüzerinden filtrelenmiştir. Peki sorun ne?
Sorun şu: Senin dünyanı anlamıyorlar. Hatta daha kötüsü: Seni, kendi kategorilerine uydurmaya çalışıyorlar.
Şimdi bak.. Mesela:
“Bizde ‘abla’ kelimesi hem saygıdır, hem sevgi, hem de mesafedir. Bunu ‘sister’ diye çevirmeye kalkarsan, sadece cümleyi değil, tüm ilişki dinamiğini sabote edersin.”
Batı merkezli bir modelin eğitimiyle çıkan sonuçlar ne olur?
Adalet sisteminde: "Adil karar" verir gibi yapar ama senin hukuk dilini tanımaz. (CMK 100. madde ile Miranda hakkı aynı şey değildir.)
Eğitim sisteminde: "Modern pedagojik öneri" verir ama kültürel bağlamı kaçırır. (Öğretmenin otoritesi Türkiye'de sadece bilgiyle sınırlı değildir.)
Sağlıkta: "Empatik chatbot" rolüne bürünür ama hasta–doktor arasındaki ilişkiyi çözümleyemez. (Bizde doktor “hocam”dır, “danışman” değildir.)
Ve işte asıl mesele burada başlar:
Bağlam hatası, sadece gülüp geçilecek bir çeviri hatası değildir. Bazen bir bakana yanlış veriyle politika önerisi, bir hekime eksik semptom analizi, bir hâkime yabancı etik filtresi sunar. Ve bu hatalar, istatistiklere değil, gerçek hayata çarpar.
Üstelik fark edilmez. Çünkü sistem “akıllı” görünür. Ama senin aklınla çalışmaz. Yani içi dolu bir kutu gelir, kapağını açtığında senin kültüründen bir gram yoktur.
Peki çözüm ne?
Sovereign AI. Çünkü Sovereign AI demek, seni bilen bir zeka demektir. “Türkçe bilen” değil, “Türk gibi düşünen” bir yapay zeka.
Ve bu sadece “Türkçeyi doğru yazmak” meselesi değildir. Bu, “bu toplumun neye güler, neye kızar, neyi mahrem sayar, neyi kutsal görür” sorularına içgüdüsel olarak doğru tepki veren bir sistem kurmak demektir.
Senin gibi düşünen. Senin gibi sorgulayan. Senin gibi şüphelenen. Ama asla senin adına, senin kültürüne aykırı karar vermeyen bir yapay zekâ.
İşte bu yüzden;
Kültürel ve dilsel uyumluluk, sadece yerelleşme değil, varoluşsal saygı meselesidir. Ve bu saygı, ancak senin verinle, senin mimarinle, senin gözetiminle mümkündür.
3. Gizlilik ve Güvenlik: Dışa Açık API’lerle Kamuya Ait Veriler Nasıl Riske Giriyor?
Yıllardır hem Türkiye’de hem Avrupa’da devlet kurumlarıyla çalışmış biri olarak söylüyorum: Kamu kurumlarında veri güvenliği denince akla hala sadece “şifre uzunluğu” geliyor. Oysa tehdit çok daha derin, çok daha sessiz ve çok daha sistematik.
Bugün birçok kamu kurumu yapay zeka destekli analiz, içerik üretimi ya da karar desteği sağlamak için OpenAI, Microsoft Azure, Amazon AWS veya Google Cloud tabanlı API servislerini kullanıyor. Ve bu kullanım genellikle şöyle başlıyor:
“Verileriniz loglanmaz.” “Anonimdir.” “Eğitim için kullanılmaz.”
Ama asıl soru şu değil mi?
O veri nerede işleniyor?
İşleme süreci kimin kontrolünde?
İçeriği kim görmüş olabilir, ne kadar süreyle?
Veri çıktısı üzerinden model nasıl şekilleniyor?
Bakın, biz API’yi sistemimize entegre ettiğimizde, sadece modelden “yanıt” almıyoruz. Aslında biz, kendi içimizi —doğrudan, sadeleştirilmiş ve özetlenmiş şekilde— dışarıya sunuyoruz. Bu, teknolojik yardım değil; stratejik bir röntgendir.
Şöyle düşün: Bir kamu kurumu, dış kaynaklı bir dil modeliyle rapor yazdırıyor. – Prompt: “Türkiye’de 2025 yılı için enerji politikaları öner.” – Arka planda gönderilen veri: taslak belgeler, kurum içi analizler, planlar.
Bu bilgiler loglanmıyor olabilir. Ama prompt analizi, kullanım davranışı ve kurumun yazım dili bile bir araya geldiğinde şu ortaya çıkar:
Kurumun nasıl düşündüğü, neyi önceliklendirdiği, hangi meselelere nasıl yaklaştığı…
Yani bir ülkenin “zihinsel altyapısı” gözlemlenebilir hale gelir. Ve burada mesele veri sızıntısı değil, yavaş yavaş veri aktarımına dönüşen bir davranış biçimidir.
Bir örnek verelim:
Milli Eğitim Bakanlığı, yapay zeka ile sınav sorusu üretmek istiyor. GPT API’si kullanılıyor. Her gün binlerce prompt giriliyor: ders metinleri, kazanım hedefleri, örnek sorular… Sistem çalışıyor, sorular geliyor.
Ama o promptların hepsi, aslında ülkenin eğitim sistemine dair çok şey anlatıyor.
– Hangi konulara ağırlık veriliyor? – Hangi soru tarzı tercih ediliyor? – Hangi pedagojik model benimseniyor?
Ve bu bilgiler, bir LLM’in içinde yeniden şekillenebilir. Gün gelir, bu bilgilerle eğitilen başka bir model, senin eğitim sistemine "danışmanlık" vermeye başlar. Ama içerik zaten senden alınmış, sadece format değişmiştir.
Bu bir “teknoloji satın alımı” değil, bir veri dönüşüm operasyonudur.
Güvenlik, fark ettiğin anda başlayan bir mesele değildir. Fark etmediğin her gün, usulca ihlal edilen bir değerdir.
Ve kamu kurumları, bu ihlalin çoğunu “işler kolaylaştı” zannederken yaşar. – "Yapay zeka cevabı daha hızlı verdi..." – "Model çok iyi özetliyor..." – "Kurum içi iş yükünü azalttı..."
Evet. Çünkü senin kurum içi hafızanı, analitik dilini, karar reflekslerini çoktan tanıdı. Ve artık seni senden daha hızlı çözebiliyor.
Şunu net koyalım:
API, teknik olarak bir bağlantıdır. Ama stratejik olarak bir zihin açıklığıdır — ve bu her zaman güvenli değildir.
Devlet aklı, bu tür bağlantıları "verimlilik aracı" olarak değil, milli refleks filtresiyle değerlendirmelidir. Bugün bu değerlendirmeyi yapmayan kurumlar, yarın danışmanlık aldıkları sistemlerin aslında kendi iç yapılarını yansıttığını fark ettiklerinde iş işten geçmiş olabilir.
Gizlilik, sadece belge güvenliğiyle korunmaz. Düşünce akışını, kurum davranışını, veri alışkanlığını dışarıya açıyorsan — egemenliğin kapısını da aralıyorsun demektir. Sovereign AI, işte bu kapıyı içeriden kilitlemenin adıdır.
4. Algoritmik Tarafsızlık: Kendi Kültür Kodlarına Sahip Bir Model Mümkün mü?
Yapay zeka sistemlerinin en çok pazarlanan özelliklerinden biri nedir? Tarafsızlık. “Önyargısız cevaplar verir, herkese eşit yaklaşır, insan hatasını ortadan kaldırır” denir. Ama bu söylem, derin bir yanılsamayı saklar:
Her model, verildiği verinin ve beslendiği zihniyetin bir yansımasıdır. Yani yapay zeka da bir kültürün çocuğudur.
Bugün GPT, Claude, Gemini gibi LLM’ler; Batı merkezli etik, hukuk, tarih, sosyoloji ve siyaset teorileriyle eğitilmiştir. Peki bu modellerin dünyaya bakışında hangi kodlar var?
İfade özgürlüğü: Batı’da sınır yoktur, bizde sorumluluk vardır.
Cinsiyet rolleri: Batı'da bireysellik, bizde toplumsal denge ön plandadır.
Din: Batı’da din nötr bir tartışma konusudur; bizde inançla sosyal yapı iç içedir.
Aile: Batı’da birey önceliklidir; bizde aile birincildir.
Kutsal: Batı’da sorgulama serbesttir; bizde sınırlar çizilidir.
Bu farklılıklar algoritmalara şöyle yansır:
Model, "Ramazan nedir?" sorusuna şöyle cevap verir:
"Ramadan is a holiday observed by Muslims."
Yani Batı’nın dış gözünden, gözlemci pozisyonuyla yanıtlar. Ama bizim için Ramazan, sadece bir “observed holiday” değildir.
Ramazan:
Aileyle iftar yapmak demektir.
Mahallede zekatı kime verdin diye düşünmek demektir.
Çocuklara oruç tutmayı değil, sabretmeyi öğretmek demektir.
Sabır, yardımlaşma, kanaat, ibadet, toplumsal hafıza demektir.
Ve evet, ekonomik sistemin ritmini bile değiştiren bir kültürel frekanstır.
İşte bu nedenle Batı merkezli bir yapay zeka modelinden, “tarafsız” davranmasını beklemek saflık olur. Çünkü o, seni bir istisna gibi tanır. Senin için evrensel sandığı kriterleri dayatır. Ve seni o kalıba uyduramadığında “yanıltıcı içerik” etiketi yapıştırır.
“Beni anlamayan bir sistemin tarafsız olmasından değil, beni yanlış yere koymasından korkarım.” Tarafsız gibi davranıp beni eksik temsil eden sistem, açıkça önyargılıdır.
Bunu şöyle düşün: Kendi hukuk sisteminle, kendi norm sisteminle, kendi geleneklerinle yaşarken; dışardan gelen bir model sana “bu cümle uygunsuz”, “bu kelime rahatsız edici”, “bu konuya cevap veremem” diyorsa… O model seni yargılamıyor mu zaten?
Ve asıl kritik nokta şu:
Bu modeller seni tanımıyor, tanımaya da programlı değil. Çünkü seni tanımak için önce senin verinle eğitilmeleri gerekir. Ve o veriler ellerinde yok — ya da senin iznin olmadan kullanılmış.
Algoritmik tarafsızlık, gerçek dünyada asimetrik bir oyundur. Kimin verisi çoksa, kimin kültürü baskınsa, onun tarafı daha “merkez” olur. Diğerleri o merkeze “uyarlanır”. Yani senin çocuklarına, “Yapay zeka tarafsız” diyerek aslında başka bir dünya görüşüyle yazılmış sonuçlar verilir. Ve fark etmeden senin kültürel kodlarını yontmaya başlar.
Peki ne yapacağız?
Sovereign AI, tarafsız olmak için değil, seni doğru anlayan bir zeka üretmek için vardır. Çünkü seni tanımayan bir model, seni tarafsız değerlendiremez.
Bu da demek oluyor ki:
Kendi diliyle eğitilmiş
Kendi tarihsel belleğini bilen
Kendi toplumsal reflekslerini tanıyan
Ve kendi etik sınırlarını tanımlayabilen bir model tarafsızlık değil, adalet üretir.
Ve bu adalet, başka bir coğrafyanın filtresiyle değil, bu toprakların değerleriyle kurulur.
Tarafsızlık söylemi, algoritmik emperyalizmin pazarlama taktiğidir. Kendi kültür kodlarına sahip bir yapay zeka, bağımsızlık değil, varoluşsal güvenlik meselesidir.
5. Kritik Altyapılarda Bağımsızlık: Cloud Vendor Lock-In Tuzağı
Gelin dürüst olalım. Bugün kamu kurumlarının büyük bölümü —özellikle IT kararlarında etkisi olanlar— "daha hızlı devreye alalım", "sorunsuz çalışıyor", "dünyada herkes böyle yapıyor" diyerek kendilerini Amazon AWS, Microsoft Azure ya da Google Cloud gibi global servis sağlayıcılara göbekten bağlıyor.
Ve ilk başta her şey harika görünür:
Sunucular esnek.
SLA'lar garantili.
Depolama sınırsız.
Kurulum sıfır maliyetli gibi görünür.
Hatta model bile hazır: OpenAI'nin API'si birkaç satır kodla entegre olur.
Ama işte sorun da tam burada başlar.
Bu yapıya girdiğiniz anda, fark etmeden Vendor Lock-in denilen yumuşak esaretin içine düşersiniz.
Yani:
Veriniz artık onların sunucularındadır.
Uygulamanız onların API standartlarına göre yazılmıştır.
CI/CD süreçleriniz onların pipeline'larına göre şekillenir.
Bütçeniz artık “kullandıkça öde” sanrısıyla her ay artan bir yük haline gelir.
Ve yazılım mimariniz, başka bir yapıya geçmenizi teknik olarak imkânsız hale getirir.
Ve bir gün çıkmak isteseniz… çıkamazsınız. Çünkü artık sadece veriniz değil, bağımlılığınız da oradadır.
“Verinin dışarıda olması kötü değilmiş gibi anlatanlar var. E peki uygulama da dışarıdaysa, işlem gücü de dışarıdaysa, karar algoritması da dışarıdaysa... O zaman neyin içindesin kardeşim?”
Peki ya daha kötüsü?
Bu firmalar sadece ticari şirketler değil, aynı zamanda politik refleks taşıyan aktörlerdir. Bugün değilse yarın, herhangi bir siyasi, etik ya da jeopolitik gelişmede şunları diyebilirler:
"Bu ülkeye servis sağlamayı askıya alıyoruz."
"Şu model, bu coğrafyada yasal risk taşıyor."
"Bu içeriği desteklemiyoruz."
"Bu ülkenin taleplerine karşı güvenlik sınırlaması getirildi."
Ve senin yapay zeka sistemin, tahmin motorun, karar destek algoritman, aniden çalışmaz hale gelebilir. Çünkü senin iraden başka bir ülkedeki regülasyona bağlıdır.
O gün geldiğinde, elinde ne model olur, ne yedek sistem, ne de çözüm üretme kapasitesi.
Bu yüzden Sovereign AI yalnızca "yerli model eğitelim" demek değildir. Bu, aynı zamanda altyapı bağımsızlığını, mimari özgürlüğü ve teknik egemenliği kurmak demektir.
Modelin kendi veri merkezinde eğitilecek.
Servisler kendi coğrafyanda, kendi hukuk sisteminde çalışacak.
Karar algoritmaları dış API’ye değil, senin sistemine bağlı olacak.
Kendi GPU havuzunu, kendi veri gölünü, kendi LLM sandbox’ını kuracaksın.
Çünkü gerçek egemenlik, sadece “veri bizim” demekle olmaz.
Egemenlik, sistem kesildiğinde “kime sitem edeceğini senin seçebilmenle başlar.”
Ve unutma:
Teknolojik bağımlılık, askeri işgalden daha sessizdir. Ama etkisi daha uzun sürer.
4. Dünya Ne Yapıyor? Egemen AI Girişimleri
Bazen insanın içi cız eder… Dönüp bakarsın: Biz neredeyiz, dünya ne yapıyor?
Ama bu bölüm öyle "X ülkesinde şöyle bir model geliştirildi" diye başlayamaz. Çünkü konu kim hangi modeli yaptı meselesi değil. Konu şu:
Kim, yapay zekayı “kendi zekası” yapabildi? Kim hala başkasının aklına prompt yazıyor?
Ve bu sorunun cevabını sana anlatmak benim boynumun borcu.
Fransa – Mistral: Açık Kaynak Ama Egemenliği Kimseye Açmıyorlar
Mistral deyince birçok kişi “Fransızların open-source AI hamlesi” diyor. Ama dostum, bunu "Fransızlar da teknolojide geç kalmak istememiş" diye okursan büyük resmi kaçırırsın.
Adamlar şunu yapıyor:
- Açık kaynak gibi duruyor ama kontrol hala devlette.
- Apache lisansı altında dağıtıyorlar ama eğitim verisi, ön işlem pipeline’ı, GPU altyapısı hepsi Fransız toprağında.
- Herkes kullansın ama kimse sahip olmasın diye yapıyorlar.
Ve asıl bomba şurada: Mistral, Avrupa’nın dijital bağımsızlık kartıdır. “Yapay zeka üretiriz ama Amerika’ya veya Çin’e mecbur değiliz” diyorlar.
Yani? Model senin olabilir ama zeka onların kalıyor. Fransa bunu tersine çevirmeye çalışıyor. Ve bu iş için milyarlarca euroyu gözü kapalı yatırıyorlar. Çünkü anladılar: Zekayı outsource edersen, geleceğini de edersin.
BAE – Falcon: Petrol Bitti, Zekaya Geçtiler
BAE uzun yıllar petrolle sustu. Çünkü parası olanın konuşmasına gerek kalmaz. Petrol her şeyi çözerdi: Lüksü, diplomasiyi, silahı, inşaatı, Formula 1’i, Avrupa bankalarını…
Ama bu çağda artık petrol değil, yapay zeka konuşuyor. Ve işte tam da bu yüzden, BAE şimdi sesini Falcon LLM ile yükseltiyor. .
Ve işin garibi mi? Beğenmediğimiz, “şımarık, tembel Araplar” dediğimiz, "petrole konmuş mirasyedi" sandığımız ülke… Şimdi dünyanın en büyük açık kaynak LLM’lerinden birini eğitti.
Düşünsene: Her şeye dışarıdan ithal bakan, danışman ordusuyla strateji üreten, “bir ülke kurar gibi şirket kuran” bir yer… Şimdi kendi yapay zekasını üretip, uluslararası piyasaya akıl ihraç etmeye çalışıyor.
Ve evet, açık kaynak yapıyor. Ama donanımı, verisi, mühendisliği, eğitimi kendi kontrolünde. Yani bir nevi “parayla zekayı içeride inşa etme” operasyonu bu.
Falcon sadece bir model değil, “biz de kod yazabiliyoruz, biz de stratejik düşünüyoruz” diyen bir coğrafyanın cevabı.
Ama burada esas konu şu: Bu bir model değil. Bu bir geçiş hikayesi.
Petrolden gelen parayı, datacenter’a gömüyorlar. Petrolden gelen saygınlığı, LLM ile kalıcı hale getirmeye çalışıyorlar. Petrol bitecek ama Falcon'un API’si kalacak — adamların hesabı bu.
Ve çok açık konuşayım: Adamlar bu modeli sadece "kendi kullanmak için" değil, ihracat için eğitiyor. Yani "akıl satacağız" diyorlar.
Çin – WuDao & ERNIE: Karar Makinesi Devletin Elinde
Çin burada fazla konuşmaz. Zaten ihtiyaç da duymaz. Çünkü yaptıkları şey, anlatmaya değil yönlendirmeye dayanır.
WuDao, 1.75 trilyon parametreyle dünyadaki en büyük LLM’lerden biri.
ERNIE, Mandarin diline optimize edilmiş, hükümet filtrelerinden geçmiş bir ChatGPT alternatifi.
Modeller iç pazarda kullanılıyor, dışa açık değil.
Yani Çin diyor ki:
“Benim zekam bana yeter. Dışarıdan alınacak zekayla karar almam.”
Bu kadar net. Bir gün dış politikada bir kriz olur, Batı'daki modeller cevap veremez, Çin’in modeli hala çalışır. Çünkü modeli de içeride, karar algoritması da içeride.
Bak, bu sevdiğin "kapalı devre" mesele işte tam da burada devreye giriyor.
Kimsenin prompt’u Çin devletinin kararına karışamaz.
Almanya – Aleph Alpha & LEAM: Beni Atlayanı Prompt’la Döverim
Şimdi gelelim Almanya’ya... Beni bilen bilir, ben bu satırları yazarken Almanya’da mühendislik eğitimi almış, orada kurumlarla çalışmış biri olarak yazıyorum. Orayı sadece gezmedim, orada teknolojiyle uğraştım.
Ve şunu net söyleyeyim: Almanlar her zamanki gibi geç başlar. Ama başladığında sistemi baştan yazarlar.
Aleph Alpha... Dışarıdan bir startup gibi gözükür ama arkası devlettir, savunmadır, anayasadır.
Model, Almanya'da eğitildi.
API Almanya’da duruyor.
Ve en kritik özelliği: Explainable AI — yani model sadece cevap vermiyor, neden verdiğini de açıklıyor.
Çünkü Alman zihniyetinde şeffaflık, mühendislik gereğidir. Cevabı doğru ver, ama nedenini de şeffaf sun. Bu, Alman yapay zekasının karakteridir.
Öte yandan LEAM var — Avrupa'nın dijital anayasasına uygun model üretme projesi. GDPR mı? Tam uyum. AI Act mi? Tam rehberlik. Yani Almanlar şunu yapıyor:
“Biz bu işi sadece teknik değil, etik olarak da egemen yapacağız.”
Eğri oturup doğru konuşalım: Bugün Türkiye'de yapay zeka konuşulurken, hiçbir kaynak Aleph Alpha’dan bahsetmiyorsa, o tartışma yarımdır. Ben orada öğrendim: Egemenlik sadece sahiplik değil, sistemin şeffaflığında da başlar.
Türkiye – TÜBİTAK BİLGEM LLM & TurkLM: Henüz Yolun Başındayız, Ama Yol Var
Ve işte biz.
Türkiye’de şu an tam olarak şuradayız: Tıpkı benim şu anda yapmaya çalıştığım gibi; Henüz modelin kendisinden çok, modelin neden gerekli olduğunu anlatma aşamasındayız.
Ama ne var?
TÜBİTAK BİLGEM LLM geliyor.
TurkLM gibi girişimler veri temelli modeller geliştiriyor.
ASELSAN, HAVELSAN, Dijital Dönüşüm Ofisi — arka planda hummalı çalışmalar var.
Bazı bankalar, bazı bakanlıklar, bazı üniversiteler pilot projelerle deniyor.
Birleşik bir strateji yok. Yani herkes bir şey yapıyor ama aynı cümleyi kurmuyoruz.
Bu iş silo işi değildir. Kamu, özel sektör, üniversite, siber güvenlik, etik uzmanı… Herkesin aynı cümlede buluştuğu bir “Sovereign AI” stratejisi yazılmadan, bu iş sadece Ar-Ge bülteni olur.
Bu yüzden bu yazıyı yazıyorum. Çünkü bu modelin eğitilmesi için sadece GPU değil, irade gerekir. Ve o irade oluşursa, bu ülke kendi zekâsını da üretir, kendi modelini de...
"Modelini sen eğitmediysen, zekan da senin değildir." Ve bu çağda başka zekayla yaşamak, başka ülkeyle yönetilmekten farksızdır.
5. Sovereign AI’ın İnşasında Zorluklar ve Yanlış Anlamalar
Sovereign AI son dönemde çok moda. Herkesin dilinde: “Biz de LLM geliştiriyoruz”, “Türk GPT geliyor”, “Egemen model yolda…” Ama gerçek şu:
Her “biz de yapıyoruz” diyen, yapmıyor. Yapay zekadan çok, sunum dosyası üretiliyor.
Şimdi, şu saçma sapan yanlış anlamaları ve teknik gerçekle hiçbir ilgisi olmayan pazarlama laflarını masaya yatıralım.
Her Ülke GPT Yapamaz mı? Tamam, Yapamaz. Ama GPT’ye Yem de Olmayalım
Evet, dürüst olalım:
GPT-4 seviyesinde bir LLM eğitmek, milyar dolarlık altyapı, aylar süren işlem gücü ve devasa veri işleme demektir.
GPT-4’ün eğitimi için:
10.000’den fazla NVIDIA A100 GPU
1 trilyonun üzerinde token
Aylar süren optimize edilmiş Reinforcement Learning süreçleri
Multi-modal entegrasyon (görsel, sesli, metinli)
Ve muazzam bir mühendislik organizasyonu gerekir.
Her ülkenin bunu yapacak kaynağı, teknolojik olgunluğu ve teknik insan gücü olmayabilir. Bu gerçek. Ama…
“Yapamıyoruz” demek başka, “GPT’yi kullanıyoruz, ne olacak ki?” demek bambaşka bir teslimiyet biçimidir.
Çünkü eğer sen:
Kamu belgelerini GPT’ye özetletiyorsan,
Üniversitelerin içerik üretimini ChatGPT’ye yıktıysan,
Kurum içi bilginin üzerine OpenAI API’si oturttuysan,
O zaman sen artık kullanıcı değil, ham madde sağlayıcısısın. Modeli yapamıyorsun bir de modelin verisini sen sağlıyorsun.
GPT’ye yem olmamak, GPT gibi olmakla aynı şey değildir.
Egemen olmak istiyorsan, modeli üretmesen bile kontrolü senin elinde olan katmanı kurmak zorundasın.
Açık Kaynak Model mi, Sıfırdan Geliştirme mi?
İkinci yanlış anlama şu: “Açık kaynak model indiriyoruz, bizim model oluyor.”
Hayır. Mistral, Falcon, LLaMA gibi açık kaynak modeller senin modelin değildir. Seninle paylaşılan bir teknolojidir.
Kendi Sovereign AI vizyonunu kurarken üç yolu düşünmelisin:
Sıfırdan model geliştirme: Çok zor, çok pahalı. Ancak yapılırsa kalıcı egemenlik sağlar.
Açık kaynak modelin fine-tune edilmesi: Gerçekçidir, maliyet-etkin olabilir. Ama verin, pipeline’ın, mimarin seninse.
Yalnızca API kullanımı: Hızlı ama egemenlik açısından hiçbir anlamı yoktur.
Sadece LLaMA indirip birkaç PDF okutmakla Sovereign AI geliştiriyorsan, kendini kandırıyorsun. O modelin tokenizer’ı, embedding stratejisi, attention mimarisi, optimizer algoritması bile senin değil.
Senin olan bir şey varsa, o da prompt’undur. Ve o prompt, GPT’nin datasını büyütmekten başka bir işe yaramaz.
Sadece Model Değil, Altyapı da “Egemen” Olmalı: Sunucudan GPU’ya Kadar
Yapay zeka modelin “senin” olabilir. Ama inference sunucun Frankfurt’ta, GPU havuzun başka ülkede, depolaman AWS'de ise…
Senin modelin, başkasının işlemcisinde çalışıyordur.
Bu şuna benzer: Anayasan senin ama mahkemelerin yabancı ülkede. Verin senin ama algoritmalar başka yerde hesap yapıyor. Model senin ama GPU'yu her çağrıda “kira” ödüyorsun.
Bu kabul edilemez. Egemenlik, sadece veri ve model katmanında değil, altyapı ve enerji katmanında da kurulmak zorunda.
GPU cluster’ların yerli mi?
Model eğitimi kendi veri merkezinde mi?
Power management senin kontrolünde mi?
Yedekleme coğrafi olarak hangi bölgede?
Cevaplar net değilse, egemenlik hikayen eksiktir.
“Egemen AI” İzolasyon Değil, Kontrollü Dışa Açıklıktır
Son yanlış anlama da şu: “Egemen AI geliştiriyorsan dünyaya kapanıyorsun.” Hayır. Bu bir Kuzey Kore hikayesi değil.
Sovereign AI demek:
Açık kaynak dünyayla iş birliği yapabilmek,
Ama karar alma sürecinde hiç kimseye sormamak,
Gerekirse dış modellerle entegrasyon kurmak,
Ama hiçbir zaman kritik süreci dış sistemlere teslim etmemek demektir.
Bu bir izolasyon değil, bağımsız karar alma becerisidir. Sen istersen dışa entegre olursun, istersen bağlantıyı kesersin. Ve o karar sadece senin elindeyse, işte o zaman egemensindir.
Egemen yapay zeka geliştirmek, “biz de model yaptık” demek değildir. Egemen yapay zeka, kararın, verinin, işlemin, etik filtrelerin ve mimarinin senin kontrolünde olduğu bir bütünlüktür.
Ve bu iş, danışmanlık değil, irade ister.
6. Türkiye İçin Bir Sovereign AI Yol Haritası: Ne Yapmalı, Nereden Başlamalı?
Artık lafı dolandırmanın bir anlamı yok. Türkiye bu işi yapabilir. Ama herkesin aynı anda başka bir yöne baktığı bir ortamda olmaz.
Sovereign AI, sadece “teknolojik kalkınma” değildir. Bu, milli güvenliktir. Bu, ekonomik bağımsızlıktır. Bu, kültürel egemenliktir.
Ve bu yol haritası bir kişiyle, bir kurumla değil; bir sistemle yürütülür. Aşağıda, Türkiye’nin elinde ne var, ne eksik, ve nasıl birleştirilmeli onu yazıyorum.
Kamu: Elinde Ciddi Enstrümanlar Var. Ama Orkestra Şefi Yok
Devletin elinde bu işi yönetecek ağır toplar var:
TÜBİTAK BİLGEM: Teknik kapasite, mühendis kaynağı, LLM deneyimi mevcut.
ULAK: 5G/6G teknolojileri ve altyapı güvenliği açısından stratejik bir konumda.
ASELSAN & HAVELSAN: Donanım bağımsızlığı, savunma entegrasyonu, gömülü yapay zeka alanında lider.
BTK: Regülasyon gücü elinde.
CB Dijital Dönüşüm Ofisi: Koordinasyon kabiliyeti ve strateji yazma yetkisi var.
Ama sorun şu:
Bunlar bir orkestranın enstrümanları. Henüz şef yok. Ve bu orkestrada herkes kendi sololarını atıyor, bir senfoni çıkmıyor.
Ne lazım? Sadece strateji belgesi değil, kurumlar arası yürüyen bir karar alma modeli. Ve bu modelin adı şu olabilir:
Sovereign AI Ulusal Kurulu
Teknik, etik, regülasyon ve sektör temsilcileri bir araya gelmeli. Ve ayda bir, tek masada toplanmalı. Prompt yazmak değil, model nasıl yetiştirilir, nasıl sahiplenilir, nasıl dışa açılır — onu konuşmalı.
Özel Sektör: Startuplar, Bankalar, Holdingler... Ama Henüz “Yalnızlar Kulübü”
Bugün Türkiye’de özel sektörde müthiş parçalar var:
Startuplar, LLM mimarisiyle ürün geliştiriyor.
Bankalar, kendi modellerini eğitiyor, RAG sistemleri kuruyor.
Holdingler, datacenter altyapılarına yatırım yapıyor.
Veri devleri (telekom, finans, sağlık) ellerinde hazine taşıyor.
Ama herkes kendi derdinde. Birbirinden habersiz, destekten bağımsız, etkileşimden yoksun. Hiç kimse kamuya, “Gelin birlikte model eğitelim” diye gitmiyor. Kamu da kimsenin kapısını çalmıyor.
Halbuki model eğitimi, veri seti havuzu ve GPU maliyeti ancak birleşerek yönetilebilir.
Bu yüzden önerim net:
Ortak GPU Konsorsiyumu: GPU havuzları, üniversite + özel sektör + kamu tarafından ortaklaşa kurulmalı.
Ulusal Veri Gölü Protokolü: Anonimleştirilmiş veriler, Sovereign AI eğitimi için işlenebilir hale getirilmeli.
Finans ve Telekom LLM Girişimi: BDDK ve BTK koordinasyonunda sektör bazlı egemen modeller desteklenmeli.
Stratejik Öneri: 2025 Ulusal Yapay Zeka Stratejisine “Sovereign AI” Faslı Eklenmeli
Mevcut “Ulusal Yapay Zeka Stratejisi 2021–2025” belgesi, güzel niyetlerle dolu. Ama Sovereign AI kelimesi bir kez bile geçmiyor.
Ve bu kabul edilemez.
Egemenlik tanımı olmayan bir yapay zeka stratejisi, sadece ithal teknolojiye fon bulan bir metindir.
2025 sonunda güncellenmesi planlanan stratejiye mutlaka şu başlık girmeli:
Sovereign AI tanımı (model + veri + altyapı + etik bağımsızlık)
Altyapı yatırımı için bütçelendirme
GPU yatırım teşvikleri
Yerli dil modeli odaklı açık veri kampanyaları
Sektör bazlı LLM stratejileri (sağlık, adalet, eğitim, finans)
Bu fasıl olmazsa, strateji eksiktir. Olursa, bu iş ciddiye biner.
Açık Kaynak + Kapalı Devre = Hibrit Egemenlik Modeli
Türkiye için en gerçekçi mimari ne sıfırdan geliştirme, ne tamamen dışa bağımlı API kullanımıdır. Çözüm, hibrit egemenliktir.
Mistral gibi açık kaynak modeller indirilebilir.
Ama bu modellerin eğitimi, kullanım protokolü, servis sunucusu ve dağıtım kanalı tamamen kapalı devre olmalı.
Yani:
Model açık olabilir.
Ama sistemin içinde ne yaptığı, kiminle konuştuğu, hangi veriye nasıl tepki verdiği sadece senin kontrolündeolmalı.
Bu yapıya “yarı açık zeka, tam kapalı kontrol” diyebilirsin. Ve şu anda en ulaşılabilir Sovereign AI modeli budur.
Regülasyon: “Veri Ülke Dışına Çıkmadan İşlenebilir” Düzenlemeleri Gelmeli
En son mesele: hukuki zemin. Bugün kamu kurumları dış model kullanırken şu bahaneyi kullanıyor:
“Veriyi dışarı göndermiyoruz, API üzerinden işliyoruz.”
Ama işte asıl tehlike bu zaten. Veri değil, işlem davranışı, prompt içeriği, kullanım örüntüsü dışarı çıkıyor. Ve o, verinin kendisinden daha çok şey anlatır.
Bu yüzden yeni bir regülasyon öneriyorum:
“Yüksek etki alanlarında (kamu, sağlık, adalet, finans) yapay zeka süreçleri sadece yerli sunucularda çalıştırılır.”
“LLM eğitimi için anonim veri kullanımı, ulusal çıkar kapsamında desteklenir.”
“API tabanlı dış servisler, kritik süreçlerde yalnızca offline çalıştırılabilir.”
Bu regülasyonlar olmadan Sovereign AI, sadece güzel bir PowerPoint sunumu olarak kalır.
Türkiye bu işi yapabilir. Ama önce şunu kabul etmesi lazım:
Yapay zekada egemenlik, model yapmakla değil; modeli, veriyi, altyapıyı ve etiği kendi kararınla birleştirmekle olur.
Ve bu birleşimi kim kurarsa, sadece teknolojik değil; jeopolitik güç olur.
7. Sonuç: Egemenlik, Yeni Bir Anlam Kazanıyor
Toprak ve Bayrak Kadar, Veri ve Algoritmalar da “Milli”dir
Geçmişte egemenlik, sınır taşlarıyla çizilen bir kavramdı. Bayrağını diktiğin yer senindi. Bugünse o sınırlar silikon çipler, veri kümeleri ve kod satırları üzerinden geçiyor.
Bir zamanlar ordu, hududu beklerdi. Bugün yapay zeka, sınırın dijital izdüşümünü korumak zorunda.
Sağlık verisi, savunma sisteminin algoritması, finansal karar motoru… Tümü veri egemenliği kapsamındadır. Ve bu milli meseledir.
Bunu anlamayanlar, topraklarını koruyup kararlarını başkasına bırakan ülkelerdir.
Sovereign AI, Sadece Teknoloji Değil; Bir Duruş Meselesidir
Sovereign AI; GPU, model, API meselesi değildir sadece. Bu, “Ben kendi zekamı kendim inşa ederim” deme meselesidir. Bu, bir milletin kendi aklına güvenip, başkasının filtresinden geçmeyen kararlar almasıdır.
Egemen yapay zeka üretmek, sadece mühendislik değil, devlet refleksidir.
Bu bir teknoloji tercihi değil, bir karakter beyanıdır.
Senin kültürüne, senin hukukuna, senin inancına, senin etik kodlarına göre eğitilmemiş bir model, senin adına adalet dağıtamaz, karar veremez, geleceğini şekillendiremez.
Sorulacak Son Soru: “Sizin Yapay Zekanız Kimden Emir Alıyor?”
Bu kadar konuşmanın ardından, asıl soru sadeleşir:
“Sizin yapay zekanız, kimden emir alıyor?”
Eğer bu soruya, “Bizim veri merkezimizde çalışıyor,” “Bizim verimizle eğitildi,” “Bizim hukuk sistemimizle karar veriyor,” “Bizim dilimizi, bizim kültür kodlarımızı biliyor,” diyemiyorsan...
O zaman senin yapay zekan yoktur. Sadece başkasının zekasına abone olmuşsundur.
Ve devlet, zekaya abone olmaz. Devlet, zeka inşa eder.
Ve Son Söz: Atatürk’ün Gölgesinde, Bir Milletin Zekası
Mustafa Kemal Atatürk der ki:
“Tam bağımsızlık, ancak ekonomik bağımsızlıkla mümkündür.”
Bugün bu cümleyi şöyle güncellemek zorundayız: “Tam bağımsızlık, ancak bilişsel ve algoritmik bağımsızlıkla mümkündür.”
Eğer bu çağda karar sistemini sen kurmuyorsan, bir gün o sistem seni yargılar. Eğer verini sen işlemiyorsan, bir gün o veriyle sana karşı pozisyon alınır.
Bu satırları sonuna kadar okuyan her mühendise, memura, danışmana, stratejiste, öğrenciye, öğretmene... Teşekkür ederim.
Çünkü siz bu yazıyı okuyarak sadece bilgi edinmediniz, sorumluluk aldınız. Yapay zekaya sadece bir teknoloji değil, bir egemenlik alanı olarak bakan herkese selam olsun.
Bugün model kuranlar, Yarın milletin kaderine dokunacak algoritmaları yazacak.
Ve ben bu ülkenin evlatlarına inanıyorum. Yeter ki kendi zekamıza sahip çıkalım.
Yorumlar
Yorum Gönder