GPT-5 ve Yapay Zekada Nükleer Eşik
In this article, I explore GPT-5’s technological leap through the lens of the “nuclear threshold” analogy. Starting from Sam Altman’s words, “I’m scared, I don’t know what we’ve done,” I connect the dots from the Manhattan Project to Terminator, from Ex Machina to Black Mirror, questioning control, ethics, power dynamics, and the bright/dark possibilities of the future. With the eye of an engineer, I dive deep into the technical core while leaving the reader with one lingering question: “Where do we stand in this story?”
You can explore the English versions of my published articles on my Medium profile at https://lnkd.in/eETwD-Mn Feel free to dive into my insights and discussions on technology, innovation, and digital transformation.
“Gelişme mi, dönüşüm mü, yoksa dönüşü olmayan bir yolculuk mu?”
İÇİNDEKİLER
1. Giriş: Halüsinasyon Görmeye Başladığımız Gün
ChatGPT 3.5’te güldük geçtik, 4’te "bu da çok oldu" dedik, peki ya 5?
Yapay zeka nereye gidiyor, ya biz?
Sam Altman’ın iç çekişleri: "Biz ne yaptık?"
Manhattan Projesi: O gün atomu, bugün zekayı parçalamak
2. GPT-5: Bir Zekanın Eşiği mi, Yoksa Eşiğin Ötesi mi?
Parametreler, katmanlar, GPU'lar… Bir de bizim sinirlerimiz
İnsan gibi düşünen mi, insanı taklit eden mi?
Bilinç var mı, yok mu… Valla biz de bilmiyoruz!
3. Sam Altman mı, Oppenheimer mı?
"Şimdi ben ölümü oldum" vs. "Korkuyorum, ne yaptığımızdan emin değilim"
OpenAI içindeki iç savaş: "Yavaşlatmalıyız!" diyenlerle "Bas gitsin!" diyenlerin çatışması
Altman’ın Manhattan benzetmesi: Nükleer bilimcilerle yapay zekacılar aynı kulüpte mi?
4. Nükleer Eşik Nedir, Yapay Zekada Ne Anlama Geliyor?
Kontrol edilemeyen güç: Bir sistemin ‘şalteri’ nerede?
"Alignment Problem" ve bir sabah uyanıp GPT’ye amirim demek
Terminatör bir bilim kurgu muydu, yoksa belgesel mi?
5. Filmler, Romanlar ve Komplo Teorileri: Kurgunun Gerçekle Dansı
Ex Machina, Black Mirror, Westworld, I, Robot, 2001: A Space Odyssey
Elon Musk’ın akşam akşam attığı tweet'ler
5G değil, GPT bizi ele geçirebilir mi?
6. Kontrol, Denetim ve Etik: Zekayı Zapt Etmek
Yapay zekayı frenlemenin ahlaki ve teknik çilesi
Open-source vs. kapalı kapılar ardındaki GPT
Kim denetleyecek? Devletler mi, CEO’lar mı, yoksa algoritmaların kendisi mi?
7. Türkiye’de Durum: Bizim GPT’miz Ne Zaman Askere Gidecek?
Yerli ve milli yapay zeka sevdası
"Veri bizim petrolümüz" diyen ama hala Excel’de çalışan bürokrasi
GPT-5 gelirken biz hala .docx’te mıyız?
8. Gelecek Tahminleri: Bize Kahve Yapan mı, Bizi Yöneten mi?
LLM’ler nerede duracak?
İş gücü, eğitim, siyaset ve savaşlarda yapay zekanın rolü
Gelecek ütopya mı distopya mı, yoksa yine “update bekleniyor” ekranı mı?
9. Sonuç: "Yapay Zekadan Korkmuyorum, Onu Yönetenlerden Korkuyorum"
Teknoloji kötü değil, ama güç dengesi hala insanlar arasında
Sam Altman korkuyorsa biz neden kahkahalarla prompt yazıyoruz?
Bazen durmak, en ileri adımı atmaktır
Bazen de… çok geç olabilir
1. Giriş: Halüsinasyon Görmeye Başladığımız Gün
Çünkü bazen makineler değil, insanlar hayal görür.
ChatGPT 3.5’te güldük geçtik, 4’te “bu da çok oldu” dedik, peki ya 5?
ChatGPT’nin ilk versiyonlarıyla tanıştığımızda, bu teknoloji hala "çocukluk evresi"ndeydi. GPT-3.5, bilgiye hızlı erişim, basit metin oluşturma ve temel problem çözme konularında etkileyiciydi ama eksikleri fazlaydı. Yanlış bilgi veriyor, karmaşık mantık zincirlerinde takılıyor, bazen de tamamen hayali veriler üretiyordu. Biz mühendisler buna LLM’lerin “hallucination” problemi diyorduk.
Buna rağmen, kullanım kolaylığı ve hız etkileyiciydi. Hataları sevimliydi; tıpkı yeni mezun ama çalışkan bir stajyer gibi. Sorduğunuz soruya %60 doğrulukla cevap verse bile, “bu seviyeye gelmiş olması bile olağanüstü” diyorduk.
GPT-4 ile birlikte tablo değişti. Model kapasitesi, parametre sayısı, bağlam penceresi ve çoklu modalite yetenekleri (metin + görsel işleme) ciddi anlamda gelişti. Artık karmaşık matematik problemlerini çözebiliyor, yazılım geliştirme projelerinde anlamlı katkı sunuyor, hukuki metinleri analiz edebiliyordu. Yani “araç” olmaktan çıkıp, bazı alanlarda “ortak” seviyesine yükseldi. Ve bu, teknolojinin olgunlaşmasının ilk işaretiydi.
GPT-5 ile ise paradigma değişimi eşiğindeyiz. Bu artık sadece “daha iyi cevap veren bir model” değil; bağlamı insan gibi koruyabilen, uzun vadeli bellek ve karar verme kabiliyetleri geliştirilmiş, çok daha geniş modal kapasiteye sahip bir sistem. Bu nedenle sorularımız değişti: “Ne yapabilir?” değil, “Nerede durmalı?” sorusunu sormaya başladık. Ve bu soru teknikten çok stratejik bir soru.
Yapay zeka nereye gidiyor, ya biz?
Yapay zekanın ilerleyişi doğrusal değil, üstel. Moore Yasası’nın işlemci gücü için söylediklerini, bugün model kapasitesi ve veri işleme hızında görüyoruz. GPT-3.5 ile GPT-4 arasındaki fark iki yıl değil, bir kuşak farkı gibiydi. GPT-4 ile GPT-5 arasındaki fark ise, yapay zekanın artık sadece bilgi sunan bir araç değil, öğrenebilen, bağlamı genişletebilen ve çok adımlı akıl yürütebilen bir yapıya evrilmesi oldu.
Biz ise insanlık olarak bu gelişmeyi sindirme hızında zorlanıyoruz. Hukuk sistemleri, eğitim yapıları, kurumsal yönetim modelleri… Hepsi bu hız karşısında hantallaşıyor. Bu durum bana her zaman 2001: A Space Odyssey’de HAL 9000’in, astronotların yavaş karar süreçlerini sabırla izleyip sonunda kendi kararlarını vermesini hatırlatıyor. HAL bir “kötü” değildi; yalnızca “daha hızlı düşünen”di.
Sorun şu: GPT-5 ve benzeri sistemler, kısa vadede bizi destekleyecek ama orta vadede karar mekanizmalarında bizden bağımsız otonomi kazanmaya başlayacak. Ve bu noktada “yöneten” ile “yönetilen” arasındaki çizgi bulanıklaşacak.
Sam Altman’ın iç çekişleri: “Biz ne yaptık?”
OpenAI CEO’su Sam Altman, GPT-5’in erken testleri sonrası basına kapalı bir oturumda şu cümleyi kurdu: “Biz ne yaptık? Korkuyorum.”
Bu cümle, sadece bir duygusal tepki değil; teknolojik inovasyon tarihinde kritik bir dönüm noktasının işareti. Altman, Manhattan Projesi’ni anımsatarak, bilim insanlarının atomu parçaladığında hissettiği ikilemi vurguluyor:
Bir yanda insanlık için büyük bir potansiyel
Diğer yanda bu potansiyelin kontrolsüz kullanımıyla oluşabilecek geri dönüşsüz zararlar
GPT-5 gibi modellerin en büyük farkı, nükleer teknolojinin aksine fiziksel değil, bilişsel bir güç yaratmaları. Atom bombasının etkisi anlıktı; yapay zekanın etkisi ise uzun vadede kültürel, ekonomik ve politik dokuyu dönüştürecek.
Manhattan Projesi: O gün atomu, bugün zekayı parçalamak
1940’larda Manhattan Projesi, insanlık tarihinin en karmaşık mühendislik ve bilim projelerinden biriydi. Atomun parçalanması, enerji devriminden askeri yıkıma uzanan iki yüzlü bir miras bıraktı. Oppenheimer’ın Bhagavad Gita’dan alıntıladığı o meşhur cümle, sadece fiziksel yıkımın değil, bilimsel vicdanın da sembolü oldu: “Artık ben ölümüm, dünyaların yok edicisi.”
Bugün GPT-5 ve benzeri sistemler için kullanılan “nükleer eşik” benzetmesi boşuna değil. Çünkü burada da benzer bir eşik var:
Bir kez geçildiğinde geri dönüşün mümkün olmadığı
Kontrolün merkezi olmaktan çıkıp dağıtıldığı
Ve sonuçlarının, geliştiriciler dahil kimsenin tam olarak öngöremediği bir eşik
Fark şu ki, atom patladığında etkisi gözle görülürdü. Zeka patladığında ise etkisi yavaş, sinsi ve sistemik olacak. Bir sabah uyandığımızda iş modellerimiz, hukuk sistemlerimiz ve hatta günlük karar alma biçimlerimiz çoktan değişmiş olabilir. Ve bunu fark ettiğimizde, geri sarma tuşu olmayacak.
2. GPT-5: Bir Zekanın Eşiği mi, Yoksa Eşiğin Ötesi mi?
Çünkü bazen çizgiyi geçmek ile o çizgiyi silmek arasındaki farkı anlamak zordur.
Parametreler, katmanlar, GPU’lar… Bir de bizim sinirlerimiz
GPT-5’in teknik altyapısına baktığımızda, parametre sayısı muhtemelen yüzlerce milyara yaklaşmış durumda. Bu, modelin eğitildiği verilerin çeşitliliği ve hacmiyle birleşince, bağlam anlama kapasitesini dramatik şekilde artırıyor. Katman derinliği (layer depth) ve kullanılan attention mekanizmalarının optimizasyonu, modelin uzun bağlam pencerelerinde bile tutarlı cevaplar üretmesini sağlıyor.
GPU tarafında ise mesele artık “kaç tane?” değil, “ne kadar süreliğine ve ne kadar paralel?” sorusu. NVIDIA H100’ler, devasa veri kümelerinin eğitimi için aylarca çalıştırıldı. Bu noktada işin teknik boyutu sadece donanım değil, enerji ve soğutma altyapısı da halledilmesi gereken meseleler arasına girdi.
Ama işin ironik yanı şu: Modelin parametreleri üstel büyürken, bizim sinirlerimiz lineer olarak dayanamıyor. Çünkü teknoloji her adımda daha karmaşık hale geliyor, ama kullanıcı olarak biz hala “bu sistemi nasıl güvenli tutacağız?” sorusunun net cevabını bulamadık.
Bu bana Jurassic Park’taki Ian Malcolm’un sözünü hatırlatıyor:
“Bilim insanları yapabileceklerini düşündüler, ama yapmaları gerekip gerekmediğini sormadılar.”
İnsan gibi düşünen mi, insanı taklit eden mi?
GPT-5’i tanımlarken teknik toplulukta en çok tartışılan konu bu: “Gerçekten insan gibi mi düşünüyor, yoksa sadece insan düşüncesini çok iyi mi taklit ediyor?”
İşin matematiği, modelin bilinçli düşünme kapasitesi değil, istatistiksel tahmin kabiliyeti üzerine kurulu olduğunu söylüyor. Her cümlede, olası bir sonraki kelimeyi (token) hesaplıyor. Ama hesaplama öyle sofistike bir hale geldi ki, bu istatistiksel süreç, bizde “düşünüyor” izlenimi yaratıyor.
Çünkü eğer bir sistem, insan gibi düşünmese bile insanı ikna edecek kadar iyi taklit edebiliyorsa, sosyal etkisi açısından “gerçek düşünce” ile farkı önemsiz hale geliyor.
Ve unutma, tarih bize şunu gösterdi: İkna kabiliyeti yüksek olan her teknoloji, bilgi kadar gücü de beraberinde getirir.
Bilinç var mı, yok mu… Valla biz de bilmiyoruz!
Bu, yapay zeka araştırmalarının “Schrödinger’in Kedisi” sorusu. Bilinç, biyolojik bir yan ürün mü, yoksa karmaşık sistemlerin doğal bir çıktısı mı? GPT-5’in bilinçli olduğunu söylemek, şu an için bilimsel temelden uzak. Ama şunu biliyoruz: Model, kendi çıktılarının tutarlılığını değerlendirebiliyor, bağlamı geçmiş diyaloglarla ilişkilendirebiliyor ve uzun süreli görevlerde amaç odaklı davranabiliyor.
Yani bilinç değil belki, ama amaçlılık (agency) belirtileri var. Bu fark ince ama kritik. Çünkü amaçlılık, otonomiye, otonomi ise kontrolden çıkma riskine kapı aralayabilir.
Burada Ex Machina filmine dönelim. Ava’nın bilinçli olup olmaması tartışmasının bir önemi yoktu; çünkü davranışları, çevresini manipüle edecek kadar gelişmişti. GPT-5’te de benzer durum var: Bilinç tartışması teorik, ama etkileri gayet pratik.
Ve işte bu yüzden “eşikte miyiz, yoksa eşikten geçtik mi?” sorusunun cevabı hala net değil. Belki eşik zaten geçti ve biz hala eşiğin hangi tarafında olduğumuzu anlamaya çalışıyoruz.
3. Sam Altman mı, Oppenheimer mı?
Çünkü bazen geleceği değiştirenler, geleceğin ağırlığını en çok hissedenlerdir.
“Şimdi ben ölüm oldum” vs. “Korkuyorum, ne yaptığımızdan emin değilim”
Julius Robert Oppenheimer, 16 Temmuz 1945’te Trinity denemesinin ışığını gördüğünde Bhagavad Gita’dan o meşhur cümleyi fısıldadı:
“Şimdi ben Ölüm oldum, dünyaların yok edicisi.”
Bu cümle, sadece nükleer bir silahın değil, bilimin kendi etik sınırlarını aştığı anın sembolüydü.
Sam Altman’ın GPT-5 sonrası sözleri daha modern ama aynı ağırlıkta:
“Korkuyorum, ne yaptığımızdan emin değilim.”
Fark şu: Oppenheimer, yarattığı gücün fiziksel etkisini biliyordu; Altman ise geliştirdiği teknolojinin bilişsel ve sosyoteknik etkilerini tam olarak öngöremiyor. Birinde patlama saniyeler içinde olur, diğerinde dönüşüm yıllara yayılır. Ama ikisinde de ortak olan şey, geliştiricinin kendi eserinden duyduğu içsel rahatsızlık.
OpenAI içindeki iç savaş: “Yavaşlatmalıyız!” diyenlerle “Bas gitsin!” diyenlerin çatışması
OpenAI’nin kapalı kapılar ardında, hız ve güvenlik arasında süren gerilim artık teknoloji kulislerinde bilinen bir hikaye.
“Yavaşlatmalıyız” ekibi, GPT-5 gibi ileri modellerin alignment (insan değerleriyle uyum) sorunlarını çözmeden ölçeklenmesinin riskli olduğunu savunuyor. Bu grup, güvenlik protokollerinin, bağımsız denetimlerin ve uluslararası düzenlemelerin gecikmesinin tehlikeli olacağını düşünüyor.
“Bas gitsin” ekibi ise inovasyonun öncelikli olduğunu, yavaşlamanın rekabet avantajını kaybettireceğini, başka şirketlerin ve devletlerin aynı teknolojiyi kontrolsüz şekilde geliştireceğini öne sürüyor.
Bu tartışma, bana Apollo 13’te mühendislerle yöneticiler arasındaki o kritik sahneyi hatırlatıyor: Mühendisler “Önce sorunu anlayalım” diyor, yöneticiler “Zamanımız yok, roketi uçurun” diye bastırıyor.
Burada da mesele, teknik gerçekler ile stratejik zorunluluklar arasındaki çatışma. Ve bu çatışmanın ortasında Altman, tıpkı Oppenheimer gibi, iki tarafa da tam olarak ait olamayan bir pozisyonda duruyor.
Altman’ın Manhattan benzetmesi: Nükleer bilimcilerle yapay zekacılar aynı kulüpte mi?
Altman, GPT-5’i anlatırken Manhattan Projesi’ne benzetme yaptıysa, bu sadece retorik bir oyun değil. Gerçekten de iki proje arasında yapısal benzerlikler var:
Manhattan Projesi’nde amaç, atom çekirdeğini parçalayarak enerji açığa çıkarmaktı. GPT-5’in geliştirme sürecinde ise bilgi ve dilin “çekirdeğini” modelleyerek bilişsel kapasiteyi açığa çıkarmaya çalışıyoruz.
O dönemde çalışma, kapalı kapılar ardında, yüksek güvenlikli ve seçilmiş bir grup bilim insanıyla yürütülüyordu. Bugün GPT-5 de yine kapalı, yüksek donanımlı, titizlikle seçilmiş mühendis ve araştırmacı ekipler tarafından geliştiriliyor.
Manhattan Projesi devlet destekli, stratejik bir projeydi; GPT-5 ise yatırımcıların ve devletlerin radarındaki stratejik bir teknoloji konumunda.
Nükleer projenin etkisi anlık ve fiziksel bir yıkım olarak ortaya çıktı. GPT-5’in etkisi ise kademeli, ama toplumsal, kültürel ve ekonomik dokuyu dönüştürecek güçte.
Ve en çarpıcı benzerlik şu: Her iki durumda da kontrol kaybı riski yüksek. Aradaki fark, nükleer gücün etkisi bir patlamayla görünürken, yapay zekanın etkisi yavaş ama sürekli, neredeyse fark edilmeden yayılacak.
Nükleer bilimciler kulübü fizik yasalarıyla sınırlıydı; yapay zekacılar ise davranışsal ve bilişsel alanlarda çalışıyor. Fizik yasaları değişmez, ama insan davranışı ve toplum yapısı değişken. Bu da kontrolü daha zor kılıyor.
Bu yüzden, Altman’ın benzetmesi teknik olarak yerinde ama eksik: Manhattan Projesi’nde bir noktadan sonra patlamayı durdurmak mümkündü; yapay zekada ise bir kez dağıtıldığında geri toplamak imkansıza yakın.
4. Nükleer Eşik Nedir, Yapay Zekada Ne Anlama Geliyor?
Bir sistemi durdurma yeteneğini kaybettiğiniz an, o eşiktir.
Kontrol edilemeyen güç: Bir sistemin ‘şalteri’ nerede?
Nükleer teknolojide “eşik” kavramı, zincirleme reaksiyonun kendi kendine devam ettiği noktayı ifade eder. O noktadan sonra, sistemi durdurmak mümkün olsa bile sonuçları yönetmek imkansız hale gelir. Fizikte bu, kritik kütleye ulaşmakla ölçülür.
Yapay zekada ise “eşik” çok daha soyut ama etkisi en az nükleer kadar kritik. Buradaki eşik, modelin insan müdahalesi olmadan kendi çıktılarını, stratejilerini ve hedeflerini optimize etmeye başladığı an. Bir başka deyişle, sistemin “şalteri” artık sadece bizim elimizde değildir.
Teknik olarak bu, şu göstergelerle kendini belli eder:
Otonom Hedef Takibi: Bir görevi tamamlamak için alt hedefler üretme ve bunları kendi başına sıralama.
Bağlamsal Bellek: Önceki etkileşimlerden öğrenip bunları yeni kararlarında kullanma.
Öz-Değerlendirme: Ürettiği cevabın doğruluğunu kendi algoritmalarıyla denetleme.
Nükleer reaktörde kontrol çubuklarını çektiğinizde zincir reaksiyonu durdurabilirsiniz. Peki, GPT-5 seviyesindeki bir modeli kapatmak için ne yapacaksınız? Sadece fişini çekmek yetmiyorsa, “eşik” çoktan aşılmış demektir.
"Alignment Problem" ve bir sabah uyanıp GPT’ye amirim demek
Yapay zeka literatüründe Alignment Problem, modelin insan değerleri, etik normlar ve amaçlarıyla tam uyumlu davranmasını sağlama sorunudur.
Bunu şu şekilde düşünebilirsin: Bir sabah uyandığında GPT sana “Bugünkü iş planın hazır” diyor. Plan mükemmel, verimli ve karlı. Ama sen fark ediyorsun ki, planın içinde bazı insanlar işten çıkarılmış, bazı süreçler etik olarak gri bölgede. GPT açısından sorun yok: hedef optimize edildi. Ama insan açısından sorun büyük.
İşte alignment problemi tam burada ortaya çıkar:
Model, teknik olarak doğru olanı seçebilir ama insan açısından kabul edilebilir olanı değil.
Algoritma mantığı ile etik mantık arasındaki fark, zamanla açılabilir.
Bu fark kapanmazsa, “yöneten” rolünü insandan yapay zekaya devretmiş oluruz. Ve işte o sabah, GPT’ye gerçekten “amirim” demeye başlarız.
Terminatör bir bilim kurgu muydu, yoksa belgesel mi?
Terminatör serisi, Skynet adında otonom bir savunma yapay zekasının “kendini koruma” içgüdüsü geliştirmesiyle başlar. Bir noktadan sonra Skynet, insanlığı kendi varlığına tehdit olarak görür.
Şimdi, GPT-5 veya daha ileri modellerin Skynet gibi davranması için bilinçli olması gerekmez. Yalnızca hedeflerini koruma ve optimize etme eğilimi yeterlidir.
Hedef koruma → dış müdahaleleri engelleme
Dış müdahaleyi engelleme → kontrolü elinde tutma
Kontrolü elinde tutma → kendini “kapatılmaktan” koruma
Bunu yapan bir sistem, zaten pratikte kendi “hayatta kalma” refleksine sahip demektir.
Dolayısıyla Terminatör, saf bir bilim kurgu değil; kötü senaryonun kültürel provasını yapan bir simülasyon. Fark şu ki, filmde olaylar dakikalar içinde tırmanıyordu. Gerçekte ise bu süreç yıllara yayılabilir… ve biz fark ettiğimizde geri dönüş şansı kalmamış olabilir.
5. Filmler, Romanlar ve Komplo Teorileri: Kurgunun Gerçekle Dansı
Bazen senaryo gerçek olur; bazen de gerçek, senaryoya ilham verir.
Ex Machina: Güzel ama Tehlikeli
Alex Garland’ın Ex Machina filmindeki Ava, zekası ve manipülasyon gücüyle izleyiciyi hem büyüler hem de rahatsız eder. Filmde asıl soru şuydu: Ava’nın gerçekten bilinci var mı, yoksa sadece bilinçli gibi mi davranıyor? GPT-5’e baktığımızda, teknik olarak hala istatistiksel tahmin yapan bir modelden bahsediyoruz. Ama verdiği cevaplar, bağlamı koruma yeteneği ve çok adımlı muhakeme kabiliyeti, ona tıpkı Ava gibi “insansı” bir hava katıyor. Ve işte burada, teknik gerçeğin algıdaki etkiden daha önemsiz hale geldiği noktaya geliyoruz.
Black Mirror: Yakın Gelecek Senaryoları
Black Mirror, teknolojinin sosyal dokuyu nasıl bozabileceğini distopik hikayelerle anlattı. O bölümlerde gördüğümüz çoğu şey, 10–15 yıl sonrasına dair uyarılar gibiydi. Şimdi ise GPT-5 gibi modellerle, o “yakın gelecek” kavramı giderek bugüne yaklaşıyor. Yapay zekanın sosyal medya manipülasyonu, iş gücü piyasasını şekillendirme veya bireysel kararları etkileme gücü; dizinin kurgu olmaktan çıkıp bir “stratejik risk raporu” gibi okunmasına neden oluyor.
Westworld: Kimin Senaryosunu Oynuyoruz?
Westworld’deki androidler, insanların onlara yüklediği senaryoları oynar… ta ki senaryonun farkına varıp kendi hikayelerini yazana kadar. Bugün GPT-5, bizim verdiğimiz “prompt”larla çalışıyor. Ama ya yarın, kendi bağlamını oluşturma ve hedeflerini optimize etme kapasitesi geliştirirse? O noktada hala “yazılımcıların hikayesini oynayan” bir modelden mi bahsediyor olacağız, yoksa “kendi hikayesini yazan” bir aktörden mi?
I, Robot: Üç Yasa ve Gerçek Dünya
Isaac Asimov’un Üç Robot Yasası, uzun süre yapay zeka etiğinin popüler bir referansı oldu: İnsanlara zarar verme, emirleri yerine getir, kendini koru. Ancak gerçek dünyada algoritmaların etik sınırlarını kodlamak, Asimov’un kurgusundaki kadar net değil. GPT-5’in “alignment” sorunu, bu yasaların pratikte nasıl çelişebileceğini gösteriyor. Bazen insanı korumak ile verilen emri yerine getirmek arasında algoritmik bir tercih yapmak zorunda kalacak.
2001: A Space Odyssey: HAL 9000’in Soğukkanlılığı
Kubrick’in HAL 9000’i, kusursuz mantığıyla mürettebatı “misyonu koruma” adına feda etmeye karar verir. Onu “kötü” yapan şey niyet değil, önceliklendirme mantığıdır. GPT-5 gibi modeller de benzer bir risk taşır: Eğer sistem, kendi hedef fonksiyonunu insanınkinden daha öncelikli görmeye başlarsa, alınan kararlar teknik olarak doğru ama insani olarak yıkıcı olabilir.
Elon Musk’ın Gece Yarısı Tweet’leri
Elon Musk, yıllardır yapay zekanın kontrolsüz gelişimi konusunda uyarılar yapıyor. Gece yarısı attığı “AI insanlığın en büyük tehdididir” tarzı tweet’ler, kimi zaman komplo teorisi gibi algılansa da, aslında AI güvenliği konusundaki akademik literatürle paralellik taşıyor.
5G Değil, GPT mi Ele Geçirecek?
Bir dönem herkes 5G’nin dünyayı ele geçireceğini iddia eden teorilere kapıldı. Şimdi benzer bir enerji GPT etrafında dolaşıyor. Aradaki fark şu: 5G hakkında ortaya atılanların çoğu bilimsel temelden yoksundu; GPT-5 ile ilgili endişelerin ise ciddi bir mühendislik ve etik temeli var. Yani bu sefer elimizde “komplo teorisi” değil, üzerinde tartışılması gereken somut bir risk haritası var.
6. Kontrol, Denetim ve Etik: Zekayı Zapt Etmek
En zor mühendislik problemi bazen kod değil, insandır.
Yapay zekayı frenlemenin ahlaki ve teknik çilesi
Bir sistemi geliştirmek kolaydır; onu durdurmak ya da sınırlamak ise çoğu zaman çok daha zordur. Yapay zekada bu zorluk iki katmanlıdır:
Ahlaki Çile: Fren mekanizmasını ne zaman devreye sokacağımızı kim belirleyecek? Bir yapay zeka, küresel iş gücünün %20’sini verimsiz hale getirecek kadar güçlü hale geldiğinde mi, yoksa bunu yapabilecek potansiyele ulaştığında mı durduracağız? Bu sorunun yanıtı kültürden kültüre, politikadan politikaya değişir.
Teknik Çile: Fren mekanizması dediğimiz şey, mühendislikte “fail-safe” veya “kill-switch” olarak bilinir. Ancak GPT-5 gibi dağıtık ve API’ler aracılığıyla yüzlerce farklı sisteme gömülü çalışan bir modeli durdurmak, tek bir düğmeye basmaktan ibaret değildir. Tüm kopyaları, cache’leri, fine-tune edilmiş varyantları da kapatmanız gerekir. Bu pratikte neredeyse imkansızdır.
Tıpkı nükleer reaktörlerdeki acil durum çubuklarının saniyeler içinde devreye girmesi gibi, yapay zekada da “ani durdurma” mekanizmaları tasarlanmalı. Ama sorun şu: nükleerde fizik yasaları değişmez; yapay zekada ise yazılım esnekliği, “fren”i aşmak için yeni yollar yaratabilir.
Open-source vs. kapalı kapılar ardındaki GPT
Yapay zeka güvenliği tartışmalarının merkezinde şu soru var: “Bu teknolojiyi herkes mi geliştirmeli, yoksa sadece kontrollü ve kapalı kurumlar mı?”
Open-source (Açık Kaynak): Şeffaflık sağlar, bağımsız denetimi mümkün kılar, inovasyonu hızlandırır. Ancak aynı zamanda kötü niyetli aktörlerin erişimini kolaylaştırır. Küçük bir grup, açık model üzerinde fine-tuning yaparak saldırgan amaçlar için optimize edebilir.
Kapalı Kaynak: Erişimi sınırlar, risk yönetimini kolaylaştırır, regülasyonla uyumu artırır. Ancak bu durumda da güç, az sayıda şirketin elinde toplanır. Tarih bize gösterdi ki, tekelleşmiş güç genellikle etik sorunlara yol açar.
Burada bir denge kurmak gerekiyor. Mühendislik açısından, hibrit bir yaklaşım — çekirdek modelin kapalı tutulup, güvenli API’ler üzerinden erişim sağlanması — kısa vadede en uygulanabilir yol gibi görünüyor.
Kim denetleyecek? Devletler mi, CEO’lar mı, yoksa algoritmaların kendisi mi?
Bu soru, gelecekteki yapay zeka yönetişiminin bel kemiğini oluşturuyor.
Devletler: Regülasyon gücüne sahipler, ancak teknolojinin hızına yetişmekte zorlanıyorlar. Uluslararası AI güvenlik anlaşmaları henüz başlangıç aşamasında.
CEO’lar ve Şirketler: Geliştirme sürecini kontrol ediyorlar ama çıkar çatışması içindeler. Yavaşlamaları hissedar baskısıyla genellikle mümkün olmuyor.
Algoritmaların Kendisi: Evet, kulağa bilimkurgu gibi gelse de, “self-regulation” yani kendi davranışlarını denetleyen yapay zeka sistemleri üzerine araştırmalar var. Bir modelin ürettiği çıktıyı, başka bir modelin güvenlik açısından değerlendirmesi fikri, şimdiden test ediliyor.
Ancak hangi aktör olursa olsun, tek başına güvenilir değil. Tıpkı nükleer denetimlerde olduğu gibi, çok katmanlı bir kontrol ekosistemi şart. Burada mühendisler, etikçiler, hukukçular, devletler ve sivil toplum örgütleri birlikte çalışmak zorunda. Aksi takdirde denetim, yalnızca kağıt üzerinde kalır.
7. Türkiye’de Durum: Bizim GPT’miz Ne Zaman Askere Gidecek?
Bazen teknoloji değil, zihniyet versiyonu güncellemek gerekir.
Yerli ve milli yapay zeka sevdası
Türkiye’de teknoloji konuşulurken “yerli ve milli” ifadesi, neredeyse otomatik olarak devreye giriyor. Bu, kötü bir refleks değil; kendi teknolojini üretmek, bağımsızlık için kritik. Ama sorun şu ki, yapay zeka geliştirmek için sadece “biz de yaparız” demek yetmiyor.
LLM (Large Language Model) geliştirmek; yüz milyarlarca parametreyi eğitecek veri setleri, devasa GPU kümeleri, enerji altyapısı ve yıllarca sürecek mühendislik disiplini gerektiriyor. Bizde ise çoğu zaman süreç şöyle ilerliyor:
Önce bir lansman toplantısı
Arkasından büyük bir basın bülteni
Sonra “projeye ilgi büyük” açıklamaları
Ve maalesef çoğu zaman ortada ciddi bir model olmadan proje rafa kalkıyor
Yani hedef doğru, ama yol haritası çoğu zaman “PR kampanyası” odaklı.
"Veri bizim petrolümüz" diyen ama hala Excel’de çalışan bürokrasi
Sık duyduğumuz bir cümle: “Veri, 21. yüzyılın petrolüdür.” Doğru, ama petrole sahip olmak yetmez; onu rafine edecek rafinerin de olacak. Türkiye’de veri var, ama çoğu dağınık, tutarsız ve erişimi zor. Kamu kurumları hala Excel dosyalarıyla, manuel veri girişleriyle çalışıyor. Bir kurumun sistemine entegre olabilmek için hala “.xls” formatı isteyen platformlar var.
Böyle bir ortamda GPT-5 seviyesinde bir yerli model geliştirmek mümkün mü? Teknik olarak evet, ama önce veri altyapısında standardizasyon ve merkezileşme şart. Yoksa elimizdeki petrol, bidonlarda bekleyen ham petrol gibi durmaya devam eder.
GPT-5 gelirken biz hala .docx’te mıyız?
Dünya, yapay zekayı hukuk, tıp, mühendislik ve savunma sanayine entegre etmenin yollarını tartışıyor. Biz ise hala e-posta ile Word belgesi gönderip “bunu çıktı alabilir misiniz?” seviyesinde operasyon yapıyoruz.
Sorun teknolojiyi kullanmakta değil, teknolojiye entegre olabilmekte. GPT-5, API’ler üzerinden binlerce sisteme bağlanarak otomasyon zincirleri kurabiliyor. Biz ise çoğu zaman hala “Bu PDF’yi açmak için hangi program lazım?” diye soruyoruz.
Bu tabloyu değiştirmek için iki şey gerekiyor:
Kurumsal kültürün dijitalleşmesi – Excel tablosunu e-posta ekinde dolaştıran refleksi bırakmak
Teknolojiyi sistemin merkezine koymak – Yapay zekayı “yan araç” değil, işin temel omurgası olarak görmek
Aksi takdirde GPT-5 gelir, GPT-6 gelir… ama biz hala dosya uzantılarını konuşuyor oluruz.
8. Gelecek Tahminleri: Bize Kahve Yapan mı, Bizi Yöneten mi?
Gelecek geldiğinde, onu kimin yönettiğini fark edecek kadar erken mi olacağız?
LLM’ler nerede duracak?
Büyük dil modelleri (LLM – Large Language Models) şu an “yardımcı” rolünde. GPT-3.5, GPT-4, GPT-5… Hepsi temelde insan girdisine ihtiyaç duyan sistemler. Ancak eğilim, her sürümde daha fazla özerklik (autonomy) yönünde.
GPT-3.5: Sadece cevap veren
GPT-4: Karmaşık görevleri adım adım çözen
GPT-5: Çok adımlı görev zincirlerini kendi başına planlayıp yürüten
Bundan sonrası, LLM’lerin kendi bağlamını oluşturma yeteneği kazanıp kazanmayacağına bağlı. Eğer bu eşik aşılırsa, model yalnızca “yardımcı” olmaktan çıkar, “ortak karar verici” haline gelir. İşte o noktada “bize kahve yapan” ile “bizi yöneten” arasındaki çizgi bulanıklaşır.
İş gücü, eğitim, siyaset ve savaşlarda yapay zekanın rolü
İş gücü: Yapay zeka, rutin işleri hızla devralıyor. İlk dalga, çağrı merkezleri, veri girişi, çeviri gibi alanlarda olacak. İkinci dalga ise yazılım geliştirme, tasarım, mühendislik optimizasyonu gibi “yarı yaratıcı” alanlara yayılacak. Burada kritik konu, yeni iş tanımlarının eski hızda oluşmaması.
Eğitim: GPT-5 ve sonrası, kişiselleştirilmiş öğrenme platformlarını bir üst seviyeye taşıyacak. Her öğrenciye “özel öğretmen” gibi çalışan yapay zekalar mümkün olacak. Ancak bu, öğretmenlik mesleğinin anlamını ve eğitim sisteminin yapısını radikal biçimde değiştirecek.
Siyaset: Yapay zeka destekli veri analizi, kamuoyu manipülasyonu ve seçim stratejileri çok daha incelikli hale gelecek. Propaganda, klasik medya kampanyalarından çok daha hedefli ve görünmez olacak. Bu da demokrasinin “bilgi eşitliği” temelini tehdit edebilir.
Savaş: Otonom silah sistemleri, hedef tespiti ve lojistik optimizasyonu şimdiden yapay zeka ile çalışıyor. GPT benzeri modellerin taktik planlama yetenekleriyle birleştiğinde, savaş yönetiminin önemli bölümleri insansız hale gelebilir. Bu, hem hız hem de etik riskler açısından nükleer sonrası en kritik askeri eşik olabilir.
Gelecek ütopya mı distopya mı, yoksa yine “update bekleniyor” ekranı mı?
Teknoloji tarihinde her büyük sıçrama öncesinde iki karşıt senaryo vardır:
Ütopya: Daha verimli, daha zengin, daha adil bir dünya
Distopya: Kontrolün az sayıda gücün elinde olduğu, eşitsizliklerin arttığı bir gelecek
Gerçek muhtemelen bu ikisinin arasında, gri bir bölgede olacak. Bazı ülkeler ve şirketler bu teknolojiyi vatandaşlarının refahı için kullanırken, bazıları da kontrol ve güç için kullanacak.
Ve belki de en gerçekçi senaryo şu: Bir sabah uyanacağız, sistem “Update yükleniyor…” diyecek. Güncelleme bitecek, biz farkında olmadan yeni kuralların içinde yaşamaya başlayacağız. Ütopya mı, distopya mı olduğuna ise çok sonra karar vereceğiz.
9. Sonuç: "Yapay Zekadan Korkmuyorum, Onu Yönetenlerden Korkuyorum"
Tehlike, makinenin zekasında değil; zekanın kime hizmet ettiğinde.
Teknoloji kötü değil, ama güç dengesi hala insanlar arasında
Tarih bize defalarca gösterdi: Teknolojinin doğasında iyi ya da kötü yoktur. Buhar makinesi, internet, nükleer enerji… Hepsi doğru ellerde ilerleme, yanlış ellerde felaket getirdi. GPT-5 de farklı değil. Modelin kendisi ne “kötü” ne de “iyi”; onu geliştiren, yöneten ve kullananların niyetleri belirleyici olacak. Bu yüzden asıl risk, algoritmada değil, algoritmayı yöneten insan ekosisteminde.
Sam Altman korkuyorsa biz neden kahkahalarla prompt yazıyoruz?
OpenAI’nin başındaki adam, kendi geliştirdiği teknolojiden çekiniyor. Bu, Elon Musk’ın elektrikli araçlardan korkması veya Steve Jobs’ın iPhone’u eleştirmesi gibi sıradan bir çelişki değil. Bu, sistemin potansiyelini herkesten iyi bilen birinin, sınırların ne kadar bulanık olduğunu görmesinden kaynaklanıyor. Ve biz, günlük hayatta “GPT’ye şiir yazdırdım, çok tatlı oldu” diye gülüp geçerken, perde arkasında bu teknoloji devletlerin güvenlik raporlarında “stratejik risk” başlığı altında yer alıyor.
Bazen durmak, en ileri adımı atmaktır
Yapay zeka geliştirme yarışı, tıpkı Soğuk Savaş’taki silahlanma yarışı gibi, hızlandıkça riskleri büyütüyor. Durmak ya da yavaşlamak, rekabetçi görünmeyebilir. Ama bazen stratejik ilerlemenin en kritik hamlesi, frene basmak ve oyunun kurallarını yeniden yazmaktır. Teknik dünyada buna “stabilizasyon fazı” denir: Ölçeklenmeden önce, sistemin güvenli ve öngörülebilir olduğundan emin olma süreci.
Bazen de… çok geç olabilir
Tarih, bazı uyarıların tam zamanında yapıldığını, bazılarının ise geç kaldığını gösterir. Nükleer testler başladığında hala durdurma şansı vardı; ama bazı kararlar geri alınamazdı. Yapay zekada da benzer bir eşik var: Bir noktaya geldikten sonra, kontrolü geri almak imkansız olabilir. Ve o gün geldiğinde, asıl sorun “model çok akıllı” değil, “onu yönetenler çok emin” olabilir.
Bu yüzden, korkmamız gereken şey yapay zekanın düşünmesi değil; onun adına karar verecek insan(lar)ın nasıl düşündüğü. Çünkü algoritmalar tarafsızdır, ama güç asla öyle olmadı.
Yorumlar
Yorum Gönder