İnsan Kaynakları, Yapay Zekaya Emanet Edilir mi?: CV Bitti, Ruh Analizi Başladı!
AI artık sadece ne yaptığını değil, nasıl hissettiğini de analiz ediyor. Peki bu sistemlere ne kadar hazırız?
In this article, I ask the uncomfortable question: Is “Human Resources” still run by humans — or are we just soft interfaces for decisions made by algorithms? Sounds harsh? Maybe. But deep down, you’ve felt it too: While we say “we use AI,” the truth is… AI already makes the decisions. We just polish the edges.
The era of résumés is over. Now it’s about your late-night Slack sighs, your Zoom eye contact, the moment you scroll LinkedIn at 2:12 AM. AI doesn’t understand you. It interprets you. And the scariest part? We’re becoming the version of ourselves it wants—quieter, smoother, easier to classify.
This article isn’t just about AI. It’s about ethics, leadership, culture, and courage. It’s a wake-up call. If you still believe you're the one managing people—read this. Because when the system pushes you out, there’s no warning. And remember: AI won’t fire you. You’ll fire yourself—by becoming irrelevant.
You can explore the English versions of my published articles on my Medium profile at https://lnkd.in/eETwD-Mn Feel free to dive into my insights and discussions on technology, innovation, and digital transformation.
İçindekiler
Algoritmalar işe alıyor, değerlendiriyor, kovuyor... Peki biz ne yapıyoruz?
1. Giriş: CV’yi Değil, Kişiliği Tarayan Bir Yapay Zeka Düşünün
“İnsan kaynakları” gerçekten hala insanlar tarafından mı yönetiliyor?
Eski İK alışkanlıkları: Okul, kıdem, keyword tarama
Yeni sistemler: Mikro davranış analizi, duygu tanıma, öngörü skoru
Peki, bu kadar “içimize bakan” sistemler ne kadar etik?
2. Otomasyonun İnsan Kaynakları Serüveni: Dünden Bugüne
1980'lerden bu yana otomatik puanlama sistemleri
SAP, Oracle, Workday ve SuccessFactors’ın evrimi
Algoritma ile performans yönetmeye çalışan ilk vakalar
2000’lerde “yetkinlik bazlı işe alım” furyası: AI öncesi manuel modeller
“Scorecard kültürü”nden “behavioral AI” çağının doğuşu
3. AI ile İşe Alım: Özgeçmiş Değil, Öngörü Seçiliyor
ATS (Applicant Tracking System) sistemlerinin dönüşümü
Chatbot mülakatlar, “fit” puanı, otomatik shortlist
Video mülakat analizleri: Yüz ifadesi, göz teması, ses tonu skoru
“Kültüre uygun ama yaratıcı olmayan adayları kim eledi?”
4. Performans Yönetiminde AI: Verimlilik mi, Gözetim mi?
Slack, Teams gibi kurumsal araçların veri madenciliği
AI’nin sessiz istifayı tespit etme iddiası
Attention tracking, mikro yorgunluk skorları
“İzleme” ile “anlama” arasındaki etik çizgi
Verimliliğin yeni tanımı: Sadece çıktı mı, duygu durumu da mı?
5. İşten Çıkarma Kararı: AI ‘Yetersiz’ Derse Kim Ne Diyecek?
AI destekli exit kararları: Yasal ve kültürel riskler
Modelin doğruluğu, verinin adaleti
“Yönetici mi karar verdi, algoritma mı?” sorusuna verilen kaçamak cevaplar
Türkiye’de ve dünyada örnek uygulamalar, mahkeme vakaları
6. Etik, Adalet, Gizlilik: İnsanlığın Asıl Sınavı
AI önyargısız değildir: Bias, veri setinden başlar
Kadın, engelli, farklı sosyoekonomik gruplar için riskler
“Objektif karar veriyor” algısının altındaki yapay denge
Çalışan gizliliği: Kaç veri noktası, hangi izni gerektirir?
7. ERP Devleri Ne Yapıyor?: SAP, Oracle, Logo, Workday ve Diğerleri
SAP SuccessFactors: Machine learning destekli yetenek yönetimi
Oracle HCM Cloud: AI ile performans puanı tahmini
Workday: Predictive analytics ile çalışan bağlılığı izleme
LOGO: Türkiye’de KOBİ’ler için AI’ye ne kadar yaklaşabiliyor?
Açık kaynak ve startup çözümler: SmartRecruiters, Eightfold AI örnekleri
8. Geleceğin İK’sı: Algoritmalarla Ortak Karar Alan İnsanlar
HRBP (Human Resources Business Partner) modelinin evrimi
Yeni roller: AI Interaction Designer, Human-AI Relationship Manager
“Yapay zekayla konuşan İK uzmanı” profili
Hibrit karar süreçlerinde yöneticinin yeri: Onaycı mı, rehber mi?
9. Stratejik ve Kültürel Dönüşüm: Adaptasyon Yetmez, Evrim Gerek
“AI kullanıyoruz” demek yetmez, karar mimarisi yeniden yazılmalı
Organizasyonel körlük: Teknolojiye adapte olup zihinsel olarak geri kalmak
İnsan merkezli sistemler AI’ye rağmen değil, onunla birlikte inşa edilmeli
Kültürel bariyerler, liderlik dirençleri, kurumsal "psikolojik savunmalar"
10. Sonuç: İnsan Kaynakları mı, Algoritma Kaynakları mı?
Kararları artık kim veriyor?
Adalet hissiyle çalışmayan çalışan, bağlı kalabilir mi?
Yeni nesil İK: Veriye dayalı ama insanı unutmayan olabilir mi?
Agentic AI ile yaşamak mı, onu şekillendirmek mi?
Son söz: “Yapay zeka bizi değil, biz kendimizi kovarız.”
Giriş: CV’yi Değil, Kişiliği Tarayan Bir Yapay Zeka Düşünün
Bir sabah ofise giriyorsun. Klasik pazartesi tripleri: Kahveni almışsın, surat beş karış. Masanın Eskiden işe alım nasıl olurdu? CV gelirdi. Ön yazıda “vizyoner, ekip ruhuna yatkın” diyorsa %1 artı puan. Boğaziçi mezunuyduysa %10 daha. Excel biliyorsa... zaten efsaneydi.
Şimdi? Yapay zeka diyor ki:
“Bana diploma falan anlatma. Bu adam hafta içi 6 kez kahve molası vermiş, 4 gün LinkedIn’e girip çıkmış. Slack’te 21:47'de ‘şirket bana nefes aldırmıyor’ yazmış.
Sen hala "Bu adam CV'ye 'detaycıyım' yazmış" diye heyecanlanıyorsun ama kusura bakma; AI çoktan seninle beraber çalışıp çalışmayacağına karar verdi bile.
Peki bu noktaya nasıl geldik?
Çünkü “İnsan kaynakları” denen departman, ironik şekilde insana en az güvenen alanlardan biri haline geldi. Karar almak istiyorlar, ama veri olmadan kıpırdamıyorlar. Duygu okumak istiyorlar, ama birini gözünün içine bakarak değil, algoritmayla çözüyorlar. Ve en tuhafı: İnsan hakkında karar verirken… insanı denklemden çıkarıyorlar.
Bu yazıda sana şunu anlatacağım: AI’nin İK’ya girmesi sadece bir araç değil, bir paradigma değişimi.
Ve bu dönüşüm öyle “yazılım alalım, entegre edelim” kafasıyla değil:
İş tanımlarını yeniden yazmakla,
Yetkinlik kavramını sorgulamakla,
Performansın ne demek olduğunu tekrar tanımlamakla mümkün.
Geçmişte bu işin denenmiş versiyonları var: Scorecard sistemleri, competency matrix’ler, ERP içindeki “otomatik öneri motorları”… Şimdi onların evrim geçirmiş, steroidli halini izliyoruz. Yani bu sistem bir tek “insan” demiyor, geri kalan her şeyi söylüyor.
SAP SuccessFactors, Oracle HCM, Workday, hatta LOGO bile AI entegre ediyor artık. Ama mesele yazılım değil. Mesele: “Karar alma gücü kimde?”
Çünkü sen hala “bu çocuk baskı altında çalışabilir mi” diye düşünürken, Agentic AI şöyle yazıyor:
“Çalışabilir. Ama sizi sevmiyor.”
Evet, bu yazı biraz sinir bozacak. Biraz güldürecek. Ama en çok da şunu söyleyecek:
“Bu sistemler geliyor. İK’nın kapısından değil, doğrudan masa başına oturarak.”
Ve senden izin bile istemiyorlar.
Hazırsan başlayalım. Önce biraz geçmişe gidelim, bu işler nereden çıktı bakalım. Sonra da bugünü ve o kaçınılmaz geleceği birlikte yorumlayalım.
Ama şunu baştan söyleyeyim: Bu yazı “yapay zekaya bayılanlar” için değil. Bu yazı, “acaba biz yavaş yavaş zekayı mı devrediyoruz?” diye düşünenler için.
Buyur... İçeri geç. Yapay zeka zaten oturmuş, seni bekliyor.
“İnsan Kaynakları” Gerçekten Hala İnsanlar Tarafından mı Yönetiliyor?
İronik ama gerçek: Bir zamanlar “İnsan Kaynakları” dediğimiz departman, bugünlerde en az insanla çalışan alanlardan biri olmaya doğru gidiyor.
Bir bak bakalım son beş yıldaki değişime:
İlk filtre: ATS (Applicant Tracking System)
İkinci filtre: AI tabanlı eşleştirme algoritması
Üçüncü filtre: Video mülakat analiz aracı
Dördüncü filtre: “Cultural fit” tahmin motoru
Beşinci filtre: “Duygusal denge” skorlaması
Yani aday daha “merhaba” demeden, beş ayrı yapay sistem onu şirket DNA’sına uygunluk açısından didik didik ediyor. Ve sen hala İK’cıyım diyorsun? Kardeşim sen bu sistemde sadece algoritmanın yumuşak geçiş katmanısın.
Eski İK Alışkanlıkları: Okul, Kıdem, Keyword Tarama
“İşe alımın kutsal üçlüsü”:
Hangi okuldan mezun?
Kaç yıl deneyimi var?
CV’de “problem solving” yazmış mı?
Uzun yıllar bu sorularla şirketlere insan seçtik. Ama bu yöntem neyi kaçırdı?
Gerçek potansiyeli
Öğrenme yeteneğini
Adaptasyon hızını
Duygusal zekayı
Bir başka deyişle: Geleceği değil, geçmişi değerlendirdik. Ve sonra ne oldu? “5 yıl tecrübeli ama motivasyonu tükenmiş” çalışan ordusu kurduk. Yani keyword’lerle kurduğun sistem, insanı etiketledi ama anlayamadı.
Yeni Sistemler: Mikro Davranış Analizi, Duygu Tanıma, Öngörü Skoru
Bugünün AI destekli İK araçları artık “büyük veriyi” değil, mikro veriyi okuyor. Yani ne yapıyorsun değil; nasıl yapıyorsun, ne sıklıkla yapıyorsun, hangi ruh haliyle yapıyorsun, ona bakıyor.
Örnek mi? Buyur:
Slack yazışmalarındaki ton analizi
Zoom görüşmesinde göz teması süresi
Eğitim platformunda geçirilen ortalama süre
Performans değerlendirme cümlelerindeki kelime yoğunluğu
Sonuç? Sana bir skor geliyor: “Bu çalışan yaratıcı ama stres altında bocalar. Yüksek potansiyel ama yöneticisinden memnun değil.”
Yani sistem artık sadece “kim bu?” değil, “bu kişi ne olur?” sorusunun peşinde. Ve bunun adı: Predictive HR. Tahmine değil, davranışsal veriye dayalı çıkarım.
Peki, Bu Kadar “İçimize Bakan” Sistemler Ne Kadar Etik?
Geldik dananın kuyruğuna. Tamam, AI çok zeki. Veriyi kokluyor, hissi hesaplıyor, davranışı okuyor. Ama biz ne zaman bu kadar içimizi açtık?
Soru şu:
“Performans için izleme” ne zaman “gözetim”e dönüşür?
“Uyum skoru” ne zaman “kişisel filtreleme”ye kayar?
İnsan hatası kabul edilirken, algoritma hatasına ne kadar tahammül ederiz?
Bir adım sonra bu sistemler sana şunu diyebilir:
“Seni işe almayacağım. Çünkü çocukluğunda babanla ilişkinin güvensiz bağlanma tipi olduğunu tespit ettim.” Şaka gibi ama değil. Bunun adı: Affective Computing. Ve şu an büyük şirketlerde test aşamasında.
Yani dostum, mesele sadece teknolojik bir araç kullanmak değil. Bu araç, bizim en özel taraflarımıza kadar erişiyor ve üzerine karar veriyor. Ve işin kötüsü, çoğu zaman biz de buna “vay be, ne akıllı sistem” diyerek rıza gösteriyoruz.
İK’nın elindeki araç artık CV değil. Senin bir haftalık ruh hali grafiğin.
Bu sistemlerle birlikte yaşanabilir mi? Belki. Ama önce sormamız gereken şey şu: “Biz buna gerçekten hazır mıyız?” Yoksa yapay zeka bize değil, biz ona hizmet etmeye mi başladık?
2. Otomasyonun İnsan Kaynakları Serüveni: Dünden Bugüne
1980'lerden Bu Yana Otomatik Puanlama Sistemleri
İnsan Kaynakları dijitalleşmeden önce de “insanları sayılaştırmaya” epey meraklıydı. 1980’lerde başlayan ilk otomasyon denemeleri, esasen “kim daha kıymetli?” sorusuna cevap arayan excelci yöneticilerin kabus görünümlü rüyalarıydı.
Örneğin:
Aday A: 5 yıl tecrübe → +5 puan
Aday B: MBA → +3 puan
Aday C: Kadro tanıdığı → Sistem dışı ama kesin alınıyor
Bu sistemlerde zekadan çok kutucuk doldurma becerisi ödüllendirilirdi. Yani İK bir bilim değil, “form doldurma sanatı”ydı. Ve eğer “Microsoft Word'e hakimim” yazdıysan, bingo!
Listeye girdin. Yapay zeka yoktu ama “ezber zekası” altın çağını yaşıyordu.
SAP, Oracle, Workday ve SuccessFactors’ın Evrimi
90’ların sonunda ERP sistemleri sahneye çıktı ve şirketler “İK’yı dijitalleştiriyoruz” diye şampanya patlattı. Ama asıl yaptıkları: Kağıt formları ekrana taşımaktan ibaretti.
SAP HR (şimdiki SuccessFactors): “Kimin kaç gün izin hakkı kaldı?” sistemiydi.
Oracle HCM: Daha çok bordro ve yan haklar sistemiydi.
Workday: “Modern görünüm ama çok tık istiyor” olarak biliniyordu.
Yani özünde hepsi “işten çıkarılacak kişi listesi”ni Excel yerine ERP’den veren sistemlerdi. “Yapay zeka” deyince kast edilen şey, genelde dropdown menüden “sebep seçmekti.”
Ama zamanla bu sistemler “analitik” öğrendi, sonra da “tahmin” yapmaya başladı. Bugün artık SuccessFactors sana “Ali bu ay memnun değil, dikkat et” diye mesaj atabiliyor. Kulağa büyüleyici geliyor ama bir yandan da ürkütücü: Senin hislerini senden önce hissediyor.
Algoritmayla Performans Yönetmeye Çalışan İlk Vakalar
2000’lerin ortasında şirketler, özellikle çağrı merkezi gibi operasyonel yapılarda “performans puanlaması” için algoritmalar yazmaya başladılar.
Dakika başına cevaplanan çağrı
Ortalama konuşma süresi
“Kapatmadan önce iyi günler diledi mi?” etiketi
Sonuç? Mükemmel müşteri hizmeti değil. Robotlaşmış çalışanlar, tükenmişlik sendromu, ama yüksek verimlilik puanları.
Algoritma şunu anlamıyordu: O gün çalışan eve gidince ağladı mı? Yani çıktı vardı, ama insan kaybediliyordu.
2000’lerde “Yetkinlik Bazlı İşe Alım” Furyası: AI Öncesi Manuel Modeller
Yapay zeka gelmeden hemen önce “yetkinlik seti” patladı. Herkes kendini “analitik düşünen, takım çalışmasına yatkın, sonuç odaklı” ilan etti. İK tarafında da “yetkinlik bazlı mülakat” diye bir trend yayıldı.
Ama şunu kimse sorgulamadı:
“Her aday aynı cümleleri kuruyorsa, bu sistem kime ne kazandırıyor?” İşe alımcılar soru sordu: “Zor bir müşteriyle nasıl başa çıktınız?” Adaylar ezberledi: “Empati kurdum, çözüm odaklı kaldım, yöneticime aktardım.”
Bir noktadan sonra bu sistemler birbirinin kopyası insan profilleri üretmeye başladı. Farklılığı değil, “benzerliği” ödüllendiren bir yapı doğdu.
“Scorecard Kültürü”nden “Behavioral AI” Çağının Doğuşu
Şirketlerin gözünde çalışan bir kişilik değil, puandır.
82/100 empati
73/100 liderlik potansiyeli
67/100 esneklik
0/100 sendikal farkındalık
Scorecard sistemleri, performansı somutlaştırmak için geldi. Ama zamanla insanı Excel hücresine sıkıştırma aracı oldu.
Ve sonra... AI devreye girdi. Bu kez sistem puan vermiyor, anlam çıkarıyor. Duyguları, davranışları, yazışmaları okuyor. Yani eskiden “ölçülen” sistem şimdi “yorumlayan” sisteme dönüştü. İşte buna da Behavioral AI diyoruz.
Ve bu nokta, sadece teknolojik değil, psikolojik bir eşiği de temsil ediyor.
Özetle: İK’da otomasyon yolculuğu Excel’den başladı, duygu analizine dayandı. Ve bu yolun sonunda soru şu: “İnsanları analiz mi ediyoruz, yoksa insanlar üzerinden sistem mi öğreniyor?”
Bu hikaye daha bitmedi. Ama şimdilik şunu net söyleyebiliriz: İnsan Kaynakları artık “kimin ne bildiği”yle değil, “nasıl davrandığı”yla ilgileniyor. Ve bu davranışları değerlendiren... bir insan değil.
3. AI ile İşe Alım: Özgeçmiş Değil, Öngörü Seçiliyor
Eskiden CV gönderirdin. İK uzmanı bakardı, sağ üst köşeye not düşerdi: “Boğaziçi - +1” “İngilizce iyi - +1” “Fotoğraf yok - eksi puan” Yani işe alım süreci, kısmen CV, kısmen kahve sonrası moduna bağlıydı.
Bugün? AI diyor ki:
“Bu kişinin davranışsal modeli düşük çatışma toleransı gösteriyor, ama yüksek bağlılık potansiyeli var. Geçen hafta gece 02:12’de LinkedIn’e girmiş. Motivasyonunu sorguluyor olabilir. Mülakat sırasında göz teması %64. Cümle sonlarında ses frekansı dalgalanıyor. Risk: Orta. Uyum: Yüksek. Shortlist’e alındı.”
Ve sen? CV’de Comic Sans font kullanmış diye eliyorsun hala. 🙃
ATS Sistemlerinin Dönüşümü: Keyword Tarayıcıdan Karakter Analistine
İlk Applicant Tracking System (ATS) sistemleri tek bir işe yarardı: CV’deki anahtar kelimeleri tarayıp eşleşme puanı çıkarmak.
“SQL biliyorum” → %27 uyum
“Takım çalışması” → %15 uyum
“Stres altında çalışabilirim” → 1980'lerden kalma puan: %10
Ama artık ATS, sadece kelime aramıyor. Kelimelerin niyetini, bağlamını, tonunu da değerlendiriyor.
Yani "çok çalışkanım" yazınca yetmiyor. “Gerçekten çalışkan mı?” diye dijital geçmişine, online davranışına, sosyal medya aktivitesine kadar iniyor.
Sen bir paragraf yazıyorsun, sistem 18 katmanlı anlam haritası çıkarıyor. Buna da "Semantic Matching" deniyor. Anlam eşleşmesi. Ama anlamı sen değil, yapay zeka tanımlıyor.
Chatbot Mülakatlar ve Otomatik Shortlist: İnsan Gibi Soruyor, Ama Hafızası Unutmuyor
İK departmanlarının yeni gözdesi: Chatbot mülakatları. İlk bakışta tatlı: “Merhaba, bu pozisyon için birkaç sorum var...” Cevap veriyorsun, tatlı tatlı ilerliyor. Ama bil ki, her kelimen kayıt altına alınıyor.
Ve sistem sadece ne dediğine değil, ne kadar hızlı yazdığına, cümle yapına, kullandığın kelimelerdeki olgunluk seviyene bakıyor.
Sen “motiveyim” yazarken, o diyor ki:
“Kişi pozitif bir izlenim yaratmak istiyor ama bağlamda gerçek motivasyon sinyali zayıf. Emojisiz cevaplar: Soğuk ton. Karar: Shortlist dışı.”
Bu sistemin adı: Conversational AI. Yani “muhabbet eden yapay zeka.” Ama bu muhabbetin sonunda seni eleyen o. Çünkü CV değil, konuşmanın alt metni seçiliyor artık.
Video Mülakat Analizi: Göz Teması, Ses Tonu, Mikro Mimikler
Bir de video mülakatlar var. Sen Zoom'da “kendimden bahsedeyim” derken, arkada sistem şöyle izliyor:
Göz teması oranı
Kaş oynatma frekansı
Sesin titreşimi
Cümleler arası duraksama süresi
Yani mülakatın teknik değil, psikofizyolojik analizi yapılıyor. Buna da “Affective AI” deniyor. Duygusal zekayı anlamaya çalışan algoritmalar.
Bu sistemlerin bazıları şunu söylüyor:
“Aday, soruya cevap verirken 2.4 saniyelik bir duraksama yaşadı. Yüz kasları mikrogerilim gösterdi. Konu stresli olabilir.”
Yani yapay zeka “karın ağrını” bile okuyor. Ama seni tanımıyor. O yüzden bu soruyu sormak gerekiyor: Yüz ifademizle değerlendirildiğimiz bir sistem ne kadar adil olabilir?
“Kültüre Uygun Ama Yaratıcı Olmayanları Kim Eledi?”
Bütün bu sistemlerin ortak amacı şu: Kültüre uyum sağlayan, risk yaratmayan, işini düzgün yapacak kişiyi bulmak.
Ama soru şu: Yaratıcılık riskli bir şey değil midir? Kültürün dışına çıkan insan, bazen en doğru kişidir. Ama algoritma “aykırılığı” dengesizlikle karıştırırsa ne olacak?
Bir gün şirketin en yaratıcı insanı, “bu biraz fazla soru soruyor” diye elenebilir.
Sonuç: AI işe alım sürecinde sadece CV’yi değil, bizi inceliyor. Ve belki de en tehlikelisi şu:
Biz, algoritmaların istediği versiyonumuza dönüşüyoruz. Daha nötr, daha uyumlu, daha robotik.
Yani bu sistemler sadece kimleri işe alacağımızı belirlemiyor. Kim olmamızı tercih ettiklerini de bize söylüyor.
4. Performans Yönetiminde AI: Verimlilik mi, Gözetim mi?
Bundan birkaç yıl önce bir şirketteydim. İK müdürü, patronun gözüne girmek için çılgın bir proje önerdi:
“Slack mesajlarından çalışan memnuniyetini ölçelim.” Patronun gözleri parladı. Benim içimden ise şu cümle geçti: “Bu ülkede arkadaşıyla çay içerken muhalefet eden insan bile suçlu gibi hissediyor, Slack’te yazan mı özgür olacak?”
Sonra başladı sistem:
Kim ne zaman “👍” atmış
Kim “bugün zor geçti” yazmış
Kim emoji kullanmıyor
Kim sabah 08:46’da aktif ama 08:47’de sessiz
Ve biz buna “performans takibi” dedik. Ama aslında halet-i ruhiyeye el koyduk.
Slack, Teams ve Kurumsal Araçların Veri Madenciliği
Modern ofislerin %80’inde iletişim araçları artık performans ölçümüne entegre. Slack, Teams, Zoom... Hepsi sadece konuşmak için değil, izlemek için de var artık.
Mesaj sayısı Yanıt hızı Yazım dili Emoji sıklığı Gece kaçta yazmış, hafta sonu cevap vermiş mi…
AI bu verilerle ne yapıyor?
“Ahmet bu hafta 37 Slack mesajı attı ama 24’ü nötr tondaydı. Motivasyon düşmüş olabilir.” “Aylin cuma günü ‘zor bir haftaydı’ yazdı. Bu sistemde duygusal yorgunluk sinyali olarak işaretlendi.”
Yani artık KPI’lar değil, duygu dedektörleri performansı ölçüyor.
Eskiden “acaba çok mu sessiz?” diye sorardık. Şimdi sistem “çünkü sinirli” diyor. Ama sormadan. Çünkü anlamadan önce takip ediyor, sonra etiketliyor, sonra yargılıyor.
AI’nin Sessiz İstifayı Tespit Etme İddiası
Yeni moda tabir: Quiet Quitting. Yani maaş alıyor ama ruhu çoktan şirketten çıkmış. AI sistemleri şimdi bunu da ölçmeye çalışıyor.
Peki nasıl?
Eğitime katılım sıklığı düşmüş mü?
Kamera açma oranı azalmış mı?
Slack’te artık şaka yapmıyor mu?
Mail’lerde imza satırını bile kopyalıyor mu?
Bu göstergelerle bir sistem kuruluyor ve sana diyor ki:
“Bu çalışan 3 ay içinde ayrılabilir. Proje kritikse yedekle.”
Yani sistem seni giderayak fişliyor. Hatta biraz daha zorlarsan, ayrılmadan önce yerine aday önerisi de çıkarır. “Zaten senin yerin doluydu, sadece fark etmeni bekliyorduk” diyebilir.
Benzer bir şeyi ben yaşadım. Bir çalışanım vardı, birkaç haftadır durgundu. Yanına gittim, “bir şeyin var mı?” dedim. “Yok Deniz Bey, iyiyim,” dedi.
İki gün sonra Slack’ten sistem mesajı geldi:
“Mikro sinyaller çalışan bağlılığında düşüşe işaret ediyor. İK bilgilendirildi.”
Yani sistem empati yapmıyor, raporluyor. Senin içgüdüyle okuduğun şeyi, o metrikle puanlıyor. Ve bu, acayip sinir bozucu.
Attention Tracking, Mikro Yorgunluk Skorları
Yeni nesil performans sistemlerinde sadece ne yaptın değil, nasıl hissettin de ölçülüyor. Daha doğrusu, nasıl hissettiğin sanılıyor.
Kamera üzerinden göz hareketi takibi
Tuş vuruş hızında değişim
Zoom’daki mimik yoğunluğu
Mikro duraksama analizi
Sessizlik süresi ve yüz ifadesi eşleştirme
Ve sonuç:
“Bu hafta yorgunluğu artmış. Dikkat dağınıklığı %17 yükselmiş. 3 gün sonra toplantılarda aktif katılım düşebilir.”
Sen o sırada belki sadece migren çekiyorsun. Belki o gün çocuğun hasta. Ama sistem sadece veri görür. Hikayeyi bilmez.
Ve asıl sorun şu: Sistem seni “anlamaya” değil, sınıflandırmaya çalışıyor. Çünkü onun görevi empati değil, output yönetimi.
“İzleme” ile “Anlama” Arasındaki Etik Çizgi
Veri toplamak kolay. Ama veri topladığın şeyi anladığını sanmak, işte asıl tehlike burada.
Yapay zeka sana diyor ki:
“Verimli değilsin.” Ama belki sen, takımın motivasyonunu ayakta tutan kişisin. Belki herkes senden enerji alıyor. Ama bunu hiçbir metrik ölçemez.
Yani soru şu: Verimli olmayan kim? Sayıları yorumlayamayan sistem mi? Yoksa kahve molasında güldüğün için düşük skor alan sen mi?
Ve biz bu farkı göremezsek, sistemler bizi sadece çıktıyla değerlendirmeye devam edecek. İçeriği, niyeti, emeği değil... Excel’de görünen sonucu.
Verimliliğin Yeni Tanımı: Sadece Çıktı mı, Duygu Durumu da mı?
Kurumsal dünyada verimlilik uzun süre “çok iş, az zaman” demekti. Şimdi bu tanım değişiyor.
Yeni verimlilik:
Az konuş ama hızlı yanıt ver
Gül ama çok da gevşeme
Bağlı ol ama sorgulama
Yaratıcı ol ama fazla aykırı olma
Yani bizden robot gibi duygusal denge bekleniyor.
Ve AI bunu ölçüyor.
Sonra bize şunu söylüyor:
“Siz bu hafta üretkensiniz ama iletişim tonunuzda negatiflik var.” “Yüzde 12 daha az gülümsediniz.” “Slack’te geçen haftaya göre 14 kelime eksik yazdınız. Neden?”
Bunun adı artık “verimlilik” değil. Dijital şahsiyet skoru.
Senin performansın değil, halin tavrın raporlanıyor. Ve en sonunda sistem şunu soruyor:
“Bu kişi şirkete ne kadar sadık?” Yani verimlilik dediğin şey, bir çeşit sadakat testi olmuş.
Toparlayalım: AI ile performans ölçümü, bir yandan verimli, Ama bir yandan soğuk. Empatiden uzak, duygudan habersiz. İnsanı ölçmeye çalışırken, insanlığı unutan bir sistem doğuyor.
Ve bu sistemin içinde biz, “acaba az mı güldüm” diye Slack mesajını 3 kez silip yeniden yazıyoruz.
İşte asıl gözetim budur. Senin kendi kendini sansürlemen.
5. İşten Çıkarma Kararı: AI ‘Yetersiz’ Derse Kim Ne Diyecek?
Bir gün patronun odasındasın. Konuşma şöyle geçiyor:
— “Fatih’i çıkaralım.” — “Neden?” — “Model diyor ki verimsiz.” — “Ama Fatih yıllardır burada, sistemin belleği gibi.” — “Olabilir. Ama algoritma dikkat dağınıklığı, uyumsuzluk ve düşük bağlılık tespit etmiş. Rapor hazır. Exit önerisi güçlü.”
Ve sen bir anda kendini şunu düşünürken buluyorsun: Benim kararım mı bu, yoksa bir satır Python mu yazdı bu kaderi?
AI Destekli Exit Kararları: Yasal ve Kültürel Riskler
Bazı şirketler artık “AI destekli performans analizi” sonucu işten çıkarmalar yapıyor. Yani raporlar hazırlanıyor, İK sunuma çağrılıyor, yönetici imza atıyor, karar uygulanıyor.
Ama sorun şu: Kararın öznesi kim?
Patron? “Sistem söyledi.”
İK? “Analiz verisi geldi.”
Yazılımcı? “Ben sadece kodu yazdım.”
AI? “Ben kodum.”
Çalışan? “Ben robot muyum?”
Avukat? “Dava açalım.”
Ve herkesin üstünden sorumluluk yağ gibi akıyor. Ama biri işsiz kalıyor. Gerçekten. Ve işten çıkış belgesinde “algoritmik uyumsuzluk” diye bir satır yok.
Peki bu ne demek? Yani AI, “riskli” dediği için birini çıkarırsan… o kişinin hayatına giren kaosun bedelini kim öder?
Hiç kimse. Çünkü sistemde “vicdan” sütunu hala NULL.
Modelin Doğruluğu, Verinin Adaleti
AI'ye güveniyorsun. Peki o model hangi verilerle eğitildi?
Eski çalışanların çıktıları?
Yöneticilerin değerlendirme notları?
Slack’te kaç emoji kullandığı?
Kamera açma oranı?
Peki bu veriler adil mi?
Ya sistem, kadınları daha “kararsız”, introvertleri daha “soğuk”, ADHD’lileri daha “dağınık” buluyorsa? Yani insan çeşitliliğini, algoritmik homojenliğe kurban ediyorsak?
Sistem doğru olabilir. Ama adaletli olmayabilir. Ve bu farkı unuttuğun an, kararların teknikleşir ama insanlıktan çıkar.
“Yönetici mi Karar Verdi, Algoritma mı?” Sorusu ve Kaçamak Cevaplar
Bu sorunun cevabı hep flu:
“Model önerdi, biz değerlendirdik.” “Sistem alarm verdi, ama kararı biz verdik.” “Riskli sinyal geldi, yöneticimizle paylaştık.”
Yani herkes kararı biraz verdi. Ama kimse tam olarak karar sahibi değil. Çünkü iş AI’ye bırakılınca sorumluluk dağılır, Ve bu da yöneticilikten değil, korkudan doğar.
Birini işten çıkarmak kolay değildir. Eskiden vicdanınla baş başa kalırdın. Şimdi raporla. Ama vicdan hala lazım. Çünkü o Excel tablosundaki yüzde 62, bir insanın hayatı olabilir.
Türkiye’de ve Dünyada Örnekler, Mahkeme Vakaları
Dünyada AI yüzünden işten çıkarılanlarla ilgili ilk davalar başladı bile:
Amazon'un depo çalışanlarına yönelik algoritmik performans sistemleri, sendikal örgütlenme eğilimi gösterenleri düşük skorlu gösterdi. Sonuç? İşten çıkarmalar.
Uber Eats’te sürücüler, AI yüzünden sistem dışına atıldı. Davalar açıldı. “Ben geç kaldım çünkü GPS hatalıydı” diyenler, sistemden “düşük puanlı” diye atıldı.
Almanya’da bir mahkeme, AI'nin verdiği “exit önerisi” ile çıkarılan bir çalışan lehine karar verdi: “İnsani değerlendirme yapılmadan alınan karar geçersizdir.”
Peki Türkiye? Henüz netleşmiş bir dava yok ama AI’ye güvenerek performans düşüklüğü gerekçesiyle atılanlar var. İK müdürleri şöyle savunuyor:
“Rapor objektifti, sistem önerdi, insan faktörü yoktu.”
Ama bir çalışan mahkemede “beni yapay zeka kovdu” dediği gün, tüm sistemler sorgulanacak.
Birini işten çıkarmak hala insani bir meseledir. Çünkü sadece verime değil, emeğe, duygulara, geçmişe ve potansiyele bakar.
AI yardımcı olabilir. Ama karar veremez.
Ve eğer sistem bir gün sana şöyle derse:
“Bu kişi sistem için uyumsuz.” Sormayı unutma: “Peki insanlık için uyumlu muydu?”
6. Etik, Adalet, Gizlilik: İnsanlığın Asıl Sınavı
Şirket içi toplantılarda bir cümle duyarsın:
“Biz bu işi AI’ye verdik, artık daha objektifiz.”
Tamam. Objektiflik güzel şey. Ama şu soruyu soralım: Objektif olmak ne demek? Gerçekten herkes için eşit mi? Yoksa sadece kimsenin itiraz edemeyeceği kadar soğuk mu?
AI Önyargısız Değildir: Bias, Veri Setinden Başlar
Önce en temel gerçeği hatırlayalım: Yapay zeka, önyargısız değildir. Hatta bazen, bizden bile daha önyargılıdır. Çünkü biz ne verdiysek onunla öğrenmiştir.
Veri setinde kadın yöneticiler azsa, AI “liderlik = erkek” sonucunu çıkarır. Engelli bireyler sisteme yeterince temsil edilmemişse, AI onları “riskli” veya “verimsiz” olarak görür. Sosyoekonomik olarak daha yoksul bir mahalleden başvuran birine, “Bu mahallede başarı oranı düşük” diyerek daha baştan -1 puan yazar.
Yani kodda önyargı yok ama veride var. Ve veri, koddan daha derin bir adaletsizlik kaynağı olabilir.
Kadın, Engelli, Farklı Sosyoekonomik Gruplar İçin Riskler
Bunlar soyut tehlikeler değil. Gerçek hayatta karşımıza çıkan çok sayıda dramatik örnek var:
Bir kadın adayın ses tonu ‘çok duygusal’ algılandığı için, sistem onu liderlik pozisyonu için düşük skorluyor.
Engelli bir çalışanın Slack kullanımı, sistem tarafından ‘pasif’ olarak yorumlanıyor. Halbuki kişi aktif ama yazılı değil, sözlü iletişimi tercih ediyor.
İstanbul’un belirli semtlerinden gelen adaylar, geçmiş verilere göre düşük performans segmentine giriyor.
Peki burada sorun kimde?
Veride mi? Sistemde mi? Yoksa sistemi "objektif karar veriyor" diye etiketleyen bizde mi?
“Objektif Karar Veriyor” Algısının Altındaki Yapay Denge
Bu cümleyi çok duyarsın:
“Karar algoritmik, biz karışmadık.”
Yani insanlar artık kendi verdiği kararın sorumluluğunu almak istemiyor. Suçlu arıyor. Ve AI bu konuda harika bir günah keçisi. Çünkü o konuşmuyor. Sessiz. Mantıklı. Şikayet etmiyor.
Ama o kararı verirken kullandığı verinin ne kadar kirli olduğunu kim sorguluyor?
Hiç kimse.
Yani karar teknik olarak doğru, ama ahlaken kusurlu. İşte asıl mesele burada başlıyor.
Çalışan Gizliliği: Kaç Veri Noktası, Hangi İzni Gerektirir?
AI her şeyi izleyebilir. Ama her şeyi izlemeli mi?
Slack mesajları
Zoom’daki göz kontağı
Tuş basım sıklığı
Geri bildirim cevap süreleri
Mail’lerdeki dil tonu
Kamera açma kapama alışkanlığı
Bunların hepsi birer veri noktası. Hepsi birer performans parametresi.
Ama bir yerde durmalıyız. Çünkü bu bilgiler:
İnsan psikolojisini,
Duygu durumunu,
İşten soğumayı,
Bıkkınlığı,
Hatta özel hayatı bile açığa çıkarabilir.
Peki bu verilere erişim hakkı kimde? Kurumda mı? İK’da mı? AI’de mi? Çalışanda mı?
Cevap net değil. Ama şurası kesin:
Mahremiyet, bir dashboard'tan ibaret değildir.
Toparlarsak…
Yapay zeka sistemleri, insan kaynaklarında çok güçlü araçlar olabilir. Ama insan kaynakları, önce insan demektir.
Veriye, algoritmaya, modele güvenmek tamam. Ama güvenin ötesinde bir şey gerek: Sorgulamak. Anlamak. Sınır çizmek.
Çünkü etik bir çizgi varsa, onu kod değil, insan çeker.
7. ERP Devleri Ne Yapıyor?: SAP, Oracle, Logo, Workday ve Diğerleri
SAP SuccessFactors: Machine Learning Destekli Yetenek Yönetimi
SAP’nin İK çözümü olan SuccessFactors, uzun yıllardır “talent management” modülüyle öne çıkıyor. Ama özellikle 2020’den sonra buraya ciddi bir machine learning (ML) altyapısı gömüldü. Neler yapıyor bu altyapı?
Recruiting Management modülü, başvuru yapan adayların geçmiş verilerini, performans istatistiklerini, hatta kültürel uyum skorlarını modelleyerek önerilen adaylar listesi sunuyor. Bu liste, klasik “keyword eşleşme” mantığından farklı olarak olası başarı skoruna göre sıralanıyor.
Performance & Goals modülü, bireysel hedefler ile departman hedefleri arasındaki bağlantıyı analiz ederek çalışanların gizli katkı alanlarını çıkarabiliyor. “Siz bu kişinin sadece satış hedefini görüyorsunuz ama bu kişi içeride bilgi paylaşımıyla ekibin öğrenme hızını artırıyor” gibi içgörüler sağlıyor.
People Analytics & Workforce Planning, zaman serileri ve regresyon modelleriyle gelecekteki ekip yapısını, turnover oranını ve leadership pipeline ihtiyacını tahmin ediyor.
Ayrıca SAP, bu sistemleri SAP AI Core ile merkezi yapay zeka katmanına bağlıyor. Yani veriler S/4HANA üzerinde tutarlı ve güvenli şekilde akarken, analizler gerçek zamanlı ML algoritmalarıyla işleniyor.
SAP’nin yaklaşımı modüler değil, platform temelli. Bu da entegrasyon maliyetini artırsa da, kurumsal müşteriler için güçlü bir kontrol sunuyor.
Oracle HCM Cloud: AI ile Performans Puanı Tahmini
Oracle, her zamanki gibi işi veriyle başlatıyor. HCM Cloud sistemi içindeki Adaptive Intelligence (AI) katmanı, HR verisini sadece raporlamakla kalmıyor, proaktif tahminleme yapıyor.
Performance Management modülü, geçmiş başarı kriterleri ve davranışsal veri üzerinden bir “predictive rating engine” çalıştırıyor. Bu motor, çalışan hakkında yöneticiden önce bir performans puanı tahminliyor.
Oracle’ın kendi ifadeleriyle bu sistem “biased data-aware”. Yani sistem, önyargılı veri içerdiğini varsayıyor ve bunu normalize etmeye çalışıyor. Mesela bir yöneticinin geçmişte sürekli düşük puan verdiği biliniyorsa, bu “bias” olarak işaretleniyor.
Career Development modülünde, kişisel gelişim planları, yapay zeka ile çapraz referanslanıyor: “Şu eğitimleri alırsan, bu role %65 uyum sağlarsın.”
Ek olarak, Oracle, tüm bu sistemleri Oracle Analytics Cloud + Autonomous Data Warehouse ile birleştirerek, gerçek zamanlı dashboard’lara taşıyor. Bu da C-level yöneticilere “karar destek” değil, karar öneri sistemleri sunuyor.
Oracle, AI’yi “decision augmentation” olarak konumlandırıyor. Yani kararın yerini almıyor, karar vericiye matematiksel güven katıyor.
Workday: Predictive Analytics ile Çalışan Bağlılığı İzleme
Workday’in farkı şu: Kullanıcı deneyimi + veri zekası. Sistemin içindeki Workday Prism Analytics ve People Analytics modülleri, klasik HR KPI’larının çok ötesine geçiyor.
Workday, AI’yi sadece bir motor olarak değil, bir servis katmanı olarak konumlandırıyor. Yani kullanıcı, “AI’ye şunu yap” demiyor, sistem zaten sürekli analiz yapıp arayüzde önerilerle çıkıyor.
Employee Sentiment Analysis: Slack, Teams, Zoom gibi araçlardan gelen etkileşimleri analiz ederek çalışanların “duygusal bağ” skorlarını çıkarıyor. Bu skorlar, bağlılık ve tükenmişlik tahminiyle ilişkilendiriliyor.
Attrition Prediction (İşten ayrılma tahmini): Çalışan davranışlarını zaman serisine göre izleyip, hangi çalışanın önümüzdeki 3 ay içinde ayrılma ihtimali olduğunu söylüyor. Üstelik sebepleriyle birlikte: düşük takdir oranı, az gelişim fırsatı, fazla yük...
Workday’in modeli, klasik supervised learning’den öteye geçiyor. Sequence modeling, embedding, NLP ile bağlamsal analiz katmanı kuruyor. Yani sadece veriye değil, anlama odaklanıyor.
LOGO: Türkiye’de KOBİ’ler için AI’ye Ne Kadar Yaklaşabiliyor?
Şimdi gerçeklerle yüzleşelim: Türkiye’de KOBİ’lerin %80’i hala İK süreçlerini Excel'de yürütüyor. LOGO, bu yapının içinden AI çıkarmaya çalışan nadir firmalardan biri.
Logo Tiger HR ve j-HR ürünleri, henüz gerçek anlamda “agentic AI” sunmasa da, bazı modüllerde kural temelli öneri sistemleri kullanıyor. Örneğin, izin geçmişine göre önerilen izin günleri, performans puanlamasında istatistiksel eşitleme gibi.
LOGO’nun stratejisi daha çok “ölçeklenebilir sadeleştirme”. Yani büyük modellerden ziyade, KOBİ’ye uygun “hazır senaryo” sunmak. Bu sistemlerde NLP ya da predictive analytics henüz yok, ama event-trigger bazlı otomasyonlar geliştiriliyor.
LOGO’nun önünde en büyük engel veri standardizasyonu. Çünkü veri giriş kalitesi düşük. AI için önce veri disiplinini oturtmak şart. Ama doğru ortaklarla bu boşluğu kapatabilir.
Açık Kaynak ve Startup Çözümler: SmartRecruiters, Eightfold AI
SmartRecruiters, modern HR stack içinde en hızlı büyüyen platformlardan biri. Cloud-native yapısıyla API-first mimaride çalışıyor.
Adayların davranışsal geçmişine göre “fit score” üretiyor.
LinkedIn, GitHub gibi dış kaynaklardan veri çekerek kapsamlı profil oluşturuyor.
Chatbot modülüyle adayla mülakat yapıyor, sonra içeri otomatik özet gönderiyor.
Eightfold AI ise tam bir “talent intelligence” platformu. Özellikleri:
Özgeçmiş değil, potansiyel bazlı eşleşme yapıyor. “Bu kişi öğrenirse şu rol için uygundur” diye senaryo yazıyor.
Diversity-aware matching algoritması kullanıyor. Kadın, azınlık ya da engelli adayların eşleşme oranları sistematik olarak dengeleniyor.
Prediction + Recommendation: “Bu kişi 18 ay içinde ayrılabilir, çünkü…” diye uyarıyor.
Bu sistemler, “ne oldu” sorusunu değil, “ne olacak” ve “ne önerilir” sorularını yanıtlıyor. Yani gerçek anlamda AI. Türkiye’de karşılığı hala yok, ama gelmesi an meselesi.
ERP devleri sahada: Kimisi full AI entegrasyonuna girmiş (Oracle, SAP, Workday), kimisi hala yerli çözümlerle temkinli ilerliyor (LOGO). Ama yön belli: Yapay zeka sadece süreç iyileştirmiyor, karar veriyor.
Ve bu kararlar artık “veriye dayalı” değil, veriden üretilmiş. İşte bu yüzden, klasik İK profesyoneli değil, veri okur-yazarı İK lideri çağına giriyoruz.
8. Geleceğin İK’sı: Algoritmalarla Ortak Karar Alan İnsanlar
Hatırlar mısınız, HRBP denen kavram çıktığında herkes “stratejik İK geldi!” diye sevinmişti. Artık “sadece bordro” değil, “iş ortağı” olacaklardı. Aradan geçen yıllarda işin “strateji” kısmı yer yer “toplantı notu tutmakla” eşitlendi ama olsun, en azından bir niyet vardı.
Şimdi ise bambaşka bir noktadayız. Bu sefer masada yalnız değiliz. Karşımızda, karar öneren değil, karar ALAN bir sistem var: Agentic AI. Üstelik kahve molası vermiyor, eğitim istemiyor, sendikaya üye olmuyor. Bu durumda HRBP'nin geleceği ne olacak? Rolünü koruyacak mı, yoksa yeni düzende “veri okuyan insan”a mı dönüşecek?
Gel şimdi bu tabloyu birlikte açalım.
HRBP Modeli Evriliyor: Veriyle Dans Etmeyen HRBP Kalmasın
Eskiden HRBP olmak, “departmana yakın durmak” demekti. Müdürle iyi geçin, çalışanlara moral ver, iki motivasyon afişi as, yılda bir memnuniyet anketi yap, tamamdır. Ama artık AI işin ortasına girdi.
Bugünün HRBP'si şu soruları cevaplamak zorunda:
AI, bu kararı hangi skora göre verdi?
Çalışan davranış puanı neye göre hesaplandı?
Slack mesajlarından çıkarılan “düşük moral” verisi doğru mu?
Bu kişinin işten çıkarılması adil mi?
Yani artık kahve arasında “sen nasılsın” demek yetmiyor. “Bu veriyi yorumlayabildin mi?” diye soruluyor.
Bundan sonrası, klasik HRBP tanımının ötesinde bir evrim süreci. Yeni nesil HRBP = Veri yorumlayan, algoritmayı sorgulayan, insanı unutmayan hibrit danışman. Yani bir tür AI psikopatıyla medeni biçimde anlaşmaya çalışan diplomat.
Yeni Roller Sahneye Çıkıyor: AI Interaction Designer ve İnsan-AI İlişkisi Yöneticisi (!)
Bu ne saçma rol adları diyorsan, başta ben de dedim. Ama sonra düşündüm. Gerçekten ihtiyacımız var.
Çünkü AI artık “arka planda çalışan” değil, “ekip üyesi gibi davranan” bir şey. Ve kimse bu “yeni ekip arkadaşına” nasıl davranacağını bilmiyor. İşte devreye şu roller giriyor:
AI Interaction Designer
Bu arkadaş, AI’nın insanlarla nasıl konuşacağını tasarlıyor. Tonlama nasıl olacak? Tepkisi ne zaman “sert” ne zaman “empatik” olacak? Çalışan AI’dan feedback alırken ağlayacak mı, yoksa üstüne su mu dökecek?
İşte bu soruların yanıtı, Interaction Designer’da.
Human-AI Relationship Manager
Bu arkadaş da adeta şirket içi çift terapisti.
“Yapay zeka bana çok sert cevap verdi.”
“AI bana sürekli düşük puan veriyor, nedenini açıklamıyor.”
“Geçen gün AI'nın önerisiyle terfi ettim ama suçluluk hissediyorum.”
İşte bütün bu insani bocalamaları yöneten yeni nesil bir İK uzantısı: Yapay zekayla çalışanlar arasında bağ kuran kişi. Psikolog desen değil, teknolog desen değil. Tam bir “hibrit sorumluluk uzmanı”.
“Yapay Zekayla Konuşan İK Uzmanı” Profili: CV’ne ‘GPT ile kavga etmiş’ yaz
Artık bir İK uzmanı, sadece “iletişimi kuvvetli” değil, “GPT prompt’larında yaratıcı, AI çıktısını eleştirebilen, bias ayıklayabilen” olacak.
Yani CV’ye şunları ekle:
ChatGPT’ye ‘hayır’ demeyi biliyor
Copilot önerilerine itiraz etmişliği var
Midjourney görsellerini “fazla maskülen” bulup revize ettirmiş
Bu yeni profil, hem insanla empati kuracak hem de “AI sana bunu dedi ama bence haksız” diyebilecek. Yani hem takım kaptanı hem takım terapisti.
Hibrit Karar Süreçleri: Yöneticinin Rolü Onaycı mı, Rehber mi?
Bak, burası çokomelli. AI artık performans verilerini topluyor, duygusal durumları analiz ediyor, öneriler sunuyor. Yöneticinin elinde ise şu iki seçenek kalıyor:
“AI ne dediyse doğrudur, onayladım”
“Dur bakalım, bu verinin arkasında ne var?”
İşte işin kritik kırılması burada. Yöneticiler ya pasif onaylayıcı olacak ya da gerçek anlamda anlamlandırıcı liderliğe terfi edecek.
Çünkü AI şöyle diyebilir:
“Bu çalışan son 3 haftadır Zoom toplantılarına %18 geç katılıyor, Slack’te yanıt süresi uzadı, verimliliği %11 düştü. İşe bağlılığı zayıflıyor olabilir.”
Yöneticinin cevabı?
Opsiyon A: “O zaman uyarı verelim.”
Opsiyon B: “Kendisini çağırayım, acaba kişisel bir durumu mu var?”
İkisi arasındaki fark, insan olmanın ta kendisi.
İnsan Olmanın Ayarı
Bu yeni düzende İK uzmanı olmak, “veriyi okuyan robot” ya da “duygusal dayanak noktası” değil… İkisini bir araya getirebilen bir zanaatkar olmak demek.
Yani artık:
CV analizinden
Grafik okutmaktan
KPI gösteriminden çok...
Bir veri setinin içindeki insanı bulmak ve o insana saygı duymayı unutmamak en kıymetli yetkinlik olacak.
Çünkü algoritma “ne yapacağını” bilir. Ama “nasıl yapacağını” ve “niye şimdi yapmaması gerektiğini” ancak sen söyleyebilirsin.
Ve bu da… Yapay zeka çağında insan kalabilen liderlerin işi.
9. Stratejik ve Kültürel Dönüşüm: Adaptasyon Yetmez, Evrim Gerek
Şirketlerde bir dönem vardı, “dijital dönüşüm yapıyoruz” denirdi. Ne yaparlardı biliyor musun? ERP’ye iki rapor ekler, müşteri verisini Excel yerine CRM’e yazdırırlardı. Sonra da yönetim kurulu toplantısında PowerPoint'e kocaman yazarlardı: "Dijital dönüşüm: %84 tamamlandı."
Şimdi aynı şey AI için yaşanıyor. “Biz de AI kullanıyoruz!” diyor birileri. Bakıyorsun... Copilot kullanıyorlar ama strateji hala 2012 model. ChatGPT ile mail draft’ı yazıyorlar ama terfi sistemi hala "en çok mesai yapan kazansın" kafasında. Yani AI geliyor ama kurumun zihni 56k modemle bağlanıyor.
O yüzden artık mesele “kullanalım mı?” değil. Nasıl birlikte evrileceğiz?
“AI Kullanmaya Başladık” Demek Yetmez: Karar Mimarisi Yeniden Yazılmalı
Yapay zekayı şirkete entegre etmek, bir yazılım lisansı almakla bitmez.
AI karar verir. E iyi güzel.
Peki bu karar süreci kimin onayıyla işler?
Kim düğmeye basar?
Kararın bağlamı ne?
Yani: AI "ne derse olur" mu?
Yoksa biri hala “şunu da bir düşün” der mi?
İşte burası, stratejinin yeniden yazılması gereken yer.
Yani sadece IT departmanına “AI modülü” eklemek değil, şirketin karar alma kültürüne yeni bir katman eklemek gerekiyor.
Bu da şunu gerektiriyor:
Karar süreçlerinde şeffaflık
Algoritmik kararların açıklanabilirliği
“İnsan veto hakkı” gibi konseptlerin tanımlanması
Ve en zoru: Yönetici egosunun API’lerle barışması
Organizasyonel Körlük: Teknolojiyi Kullandık Sanıp, Zihnen Geri Kalmak
Bir keresinde bir şirkette şöyle bir sahneye tanık oldum. Satış yöneticisi, CRM ekranına bakıp “AI bana bu müşteriyi arama dedi” dedi.
Sonra ne yaptı dersin? Yine de aradı.
Niye?
“Ben sezgilerime güvenirim hocam…”
Peki ne oldu?
Adam sipariş verdi. Yönetici “AI iyi ama beni geçemez” diye toplantı odasında nutuk attı.
Ve sonuç? Bir ay sonra aynı AI o müşteriyi liste dışı bıraktı. Çünkü sipariş iade edildi. Tahsilat da yapılamadı.
AI haklıydı. Ama “teknolojiyi kullanıyorum” diyen zihin, hala “ben bilirim” kafasındaydı.
İşte bu, organizasyonel körlük dediğimiz şeydir. Yani teknoloji ilerler ama kültür yerinde sayar. Ekranlar değişir ama düşünme biçimi, 1999.
İnsan Merkezli Sistemler: AI’ye Rağmen Değil, Onunla Birlikte İnşa Edilmeli
AI hayatımıza girdiyse, bu “insanı dışlayalım” anlamına gelmiyor. Tam tersine: İnsan-merkezli sistemler kurmanın yolu, AI’yi anlamaktan geçiyor.
Yani AI karar verir ama sen:
Empatiyle gözlem yaparsın
Çatışmaları anlarsın
“Sadece sayı değil, bağlam da önemli” dersin
Ve en önemlisi: AI’nin kararını “açıklatmak” istersin
İşte bu “merkez” hala insanda kalırsa, sistem dengeli çalışır. Yoksa AI sistemini kurarız, sonra HR departmanı haftada bir “duygu molası” organize eder:
“Bugün hep birlikte ağlıyoruz arkadaşlar. Slack linki mailde.”
Kültürel Bariyerler, Liderlik Dirençleri, Kurumsal Psikolojik Savunmalar
Yapay zeka teknik bir konu değil. Bir değişim psikolojisi meselesi.
Ve kültürel direnç dediğimiz şey; aslında kurumun "kendi konfor alanını algoritmalarla kaybetme korkusu."
Bak nelere rastlıyoruz:
“Ben yıllardır böyle karar alıyorum, şimdi AI mı bilecek?”
“Bu sistem bana güvenmiyor mu da beni analiz ediyor?”
“Yarın öbür gün beni de mi ‘düşük bağlılık skoru’ diye yollayacak?”
İşte bunlar kurumsal psikolojik savunmalar. Yani sistem değişmesin diye üretilen mantıklı bahaneler.
Liderlik bu noktada kilit. Çünkü lider:
Ya dönüşümün önünü açar
Ya da “kendi kariyer geçmişine göre” sistemi frenler
Ve bu fren, AI’nin değil insanın yapabileceği en büyük hatadır.
Eğer AI çağında sadece “teknolojiyi kurduk” diyorsanız, kusura bakmayın. O sistem çalışır ama ruhunu bulamaz.
Eğer karar alma süreçlerini, kültürü, yönetim biçimini AI’ye entegre edemiyorsanız, en iyi AI bile size sadece… verimsiz veri üretir.
Çünkü yapay zeka devriminde asıl mesele:
"Ne yaptığınız" değil, "Nasıl düşündüğünüz."
10. Sonuç: İnsan Kaynakları mı, Algoritma Kaynakları mı?
Bir departmanın adını düşünelim: İnsan Kaynakları. Yani özü itibarıyla insanı kaynak olarak gören, geliştiren, yönlendiren bir yapıdan bahsediyoruz.
Peki şu anda yaşadığımız dönüşümle birlikte bu departmanın ismini ne zaman değiştireceğiz?
“Veri Kaynakları” mı olur?
“Karmaşık Sistem Yönetimi” mi?
Yoksa direkt “Algoritma Uyumu Departmanı”?
Çünkü artık kararı insan mı veriyor, yoksa karar görünümünde tahmin mi yapılıyor?
Kararları Artık Kim Veriyor?
Sabah işe geliyorsun. HR panelinde bir uyarı:
“Ekip içi bağlılık skoru %71’in altına düştü. Bir birey izolasyonda görünüyor. Müdahale önerilir.”
Kim dedi bunu? Patron mu? Departman yöneticisi mi? Yoksa “Oracle HCM Cloud’un ilişkisel bağ modeli” mi?
Ve asıl soru: Bu sistemin önerdiği kararı kim uygulayacak? Ve neden?
Bugün “tavsiye” gibi görünen bu sistemsel çıktıların, yarın nasıl karara dönüşeceğini bilmiyoruz. Ama biliyoruz ki: Algoritmalar hızla karar alma kaslarımızı devralıyor.
Adalet Hissi Olmadan Çalışan, Bağlı Kalabilir mi?
Bir çalışan düşün: Kendisiyle hiç konuşmayan, onu asla dinlemeyen, sadece metriklerine bakan bir sistem tarafından değerlendiriliyor.
AI puanı düşük verdi. Neden? Bir raporu geç teslim etti. Ama kimse sormadı:
O sırada annesi hastaneye kaldırılmıştı.
Ve sonra HR’de şu konuşma geçiyor:
“Modelin kararı bu. Yorum katmıyoruz.”
Yani insanın derdi yok, sadece metriği var. E bu durumda “bağlılık” dediğimiz kavram neye bağlı olacak? Skor tablosuna mı, adalet hissine mi?
Kısaca: Etik olmadan bağlılık, bağlılık olmadan verimlilik, verimlilik olmadan kültür olmaz.
Yeni Nesil İK: Veriye Dayalı Ama İnsanı Unutmayan Olabilir mi?
Evet, AI çalışıyor. Evet, performans tahmin edebiliyor. Ama asıl mesele şu:
“Veriye göre mi yönetiyoruz?” Yoksa “Veriyi insanla birlikte mi yorumluyoruz?”
Yeni nesil İK, bu ayrımı anlayanlardan oluşmalı. Çünkü biz artık "veriye güveniyoruz" diye körleşmeye başladık.
Ve bu körlük, “insanı” veriyle tanımlamaya başlarsa, bir gün şunu fark ederiz:
“Biz aslında insanların kim olduğunu değil, sistemin onları nasıl gördüğünü biliyoruz.”
Yani... insan değil, yansıma yönetiyoruz.
Agentic AI ile Yaşamak mı, Onu Şekillendirmek mi?
Bu noktada iki yol var:
AI’yi izlemek
AI’yi yönlendirmek
İzlemek kolay. Ekrana bakarsın. Skora göre aksiyon alırsın. Kimseyi dinlemeden "sistem böyle dedi" dersin. Sorumluluk yok. Rahatlık bol.
Ama yönlendirmek?
İşte orası liderlik ister.
AI’ye ne öğretildiğini bilmek
Hangi verinin sisteme neyi düşündürdüğünü anlamak
Kararın açıklanabilirliğini sorgulamak
İnsan faktörünü sistem dışına itmeyi reddetmek
Yani... AI ile birlikte düşünmeyi seçmek.
Son Söz: “Yapay Zekâ Bizi Değil, Biz Kendimizi Kovarız.”
Yapay zeka geldi, evet. Ama seni işten çıkaracak olan o değil. Seni işten çıkaracak olan şey: Kendini güncelleyememek. Sistemin kararlarını anlamadan uygulamak. Verinin önüne geçmeyip arkasında kalmak. Ve en fenası: “Ben böyleyim” demek.
O yüzden:
“Yapay zeka bizi değil, biz kendimizi kovarız.”
Ve bu makale işte tam da bu farkındalık için yazıldı. Çünkü mesele “AI geliyor mu?” değil. Mesele:
“Geldiğinde biz ne yapacağız?”
İK departmanı artık sadece işe alım değil, bir organizasyonun etik pusulası, kültür üretim merkezi ve stratejik aklı olacaksa… bunu AI ile inşa etmekten korkmamalıyız. Ama ona teslim olmadan.
Evet sevgili dostum,
Buraya kadar geldiysen, belli ki konuyu ciddiye alıyorsun. Belki güldün, belki düşündün, belki de “ulan bu iş nereye gidiyor?” dedin — hepsi makbul. Bu yazıyı sana “bak AI geliyor, dikkat et” diye değil, “biz bu süreci yönetemezsek, o bizi yönetecek” demek için yazdım. Çünkü mesele sadece yazılım değil; zihniyet, kültür, etik ve cesaret meselesi.
Yapay zekayla aynı masada oturacağız, bu kesin. Ama kimin başkanlık edeceği — işte onu şimdi biz belirleyeceğiz.
Okuduğun için teşekkür ederim. Bir fikrin varsa yaz, katıl, karşı çık ama sessiz kalma. Çünkü yapay zeka sustuğunda bile çalışır; insan sustuğunda, sistem çöker.
Sevgiyle, eleştiriyle, sağduyuyla.

Yorumlar
Yorum Gönder