Eleştirel düşünme ve yapay zekâ – 21. yüzyılda yapay zekâ (AI), üretkenliğe ve bilgiye ulaşmanın sınırlarını genişletti. ChatGPT, Microsoft Copilot veya Google Bard gibi sistemler, karmaşık görevleri basitleştirebiliyor; bilgiye hızlı erişim, otomatik içerik üretimi ve süreç otomasyonu sağlıyor. Ancak bu kolaylık bir bedel ödettiriyor: İnsan düşüncesinin derinliği, analizi ve eleştirelliği zayıflıyor.
Advait Sarkar’un TED konuşmasında vurguladığı gibi, AI’nın yanlış kullanımı bizi düşüncelerimizin “orta yöneticileri” hâline getirebilir; fikirler üzerinde tam anlamıyla düşünmeyen, yalnızca AI çıktısını onaylayan aktörlere dönüştürebilir.
Eleştirel düşünme ve yapay zekâ konusunu inceleyen bu makalede, AI’nın eleştirel düşünce üzerindeki etkileri bilimsel temellerle irdelenecek; eleştirel düşünceyi korumanın ve geliştirmekte AI’yı bir engel değil, bir “düşünce aracı (tool for thought)” hâline getirmenin yolları tartışılacaktır.
1. AI ve Eleştirel Düşünce: Bir Paradoks
Eleştirel düşünme ve yapay zekâ – Advait Sarkar, modern bilgi işçilerinin bir gününün — e-postaları AI ile özetlemekten rapor yazımına kadar, giderek düşünme süreçlerini AI’ya devretmekle geçtiğini aktarıyor. Bu bağlamda eskiden “yazar tıkanması” bir boş sayfayla yüzleşmekken, artık AI tarafından üretilmiş taslağa bakıp onun doğruluğunu sorgulamak en büyük zihinsel engel hâline geliyor.
Bu “outsourced reason” (aklın dışsallaştırılması) durumu, insanın düşünsel çabayı azaltması ile sonuçlanıyor. AI çıktısını onaylamak, yorumlamak ve seçmek bazen yeterli görünüyor — ama bu, kendi zihinsel çalışmamızı yitirmemize neden olabilir.
1.1 Eleştirel Düşüncenin Bilimsel Tanımı
Eleştirel düşünme ve yapay zekâ – Eleştirel düşünce, bir iddiayı ya da veriyi sadece okumak değil; onu analiz etmek, değerlendirmek, varsayımları görmek ve farklı bakış açılarına göre değerlendirmek anlamına gelir. Gall et al. (2023) gibi çalışmalar, bu beceriyi tanımlarken “bilgiyi sorgulama, çıkarım yapma ve değişen koşullara uyarlanabilir akıl yürütme” gibi unsurları vurgular. Eleştirel düşünce, bilgiyi kendiliğinden benimsemek yerine sorgulama alışkanlığıyla karakterizedir.
2. AI’ya Aşırı Bağımlılığın Bilişsel Maliyetleri
2.1 Yaratıcılık ve Fikir Çeşitliliği
AI’ya aşırı güvenmenin yarattığı risklerden biri, fikir çeşitliliğinin daralmasıdır. Sarkar, ekiplerde AI ile çalışmanın bireysel yaratıcılığı ilk bakışta artırmış gibi görünse de, uzun vadede daha az fikir üretildiğini ve “hive mind” (kopyalanmış fikir havuzu) riskinin ortaya çıktığını belirtir.
Bu bulgu, “Yaratıcı Düşünmede Farklılık” konulu araştırmalarla tutarlıdır: AI, eğitim ve tasarım bağlamında yardımcı olabilir; ancak benzersiz ve özgün perspektiflerin ortaya çıkmasını engelleyebilir. Yapay sistemler, çoğu zaman eğitim verilerindeki ortak cevaplara dayanarak çalıştıkları için, kullanıcıları da benzer düşünce kalıplarına iter. Bu da yaratıcı çözüm çeşitliliğini azaltabilir.
2.2 Eleştirel Çaba ve Kendine Güven
Bazı araştırmalar, AI kullanımının çalışanların eleştirel çaba düzeyini azalttığını ve kendi yargılarına olan güveni düşürdüğünü göstermektedir. Çalışanlar, bir AI önerisini onaylamayı kolay bulduklarında, kendi muhakeme sürecini devre dışı bırakabilir. Bu durum, metakognitif becerilerde yani “kendi düşünce süreçlerimizi değerlendirme” yeteneğinde zayıflamaya yol açabilir.
2.3 Hafıza ve Bilgi İşleme
Bir başka önemli nokta, AI tarafından yapılan özetlemeleri okumak yerine doğrudan içeriği incelemeyen insanların bilgiyi daha az hatırlamasıdır. Sarkar’ın konuşmasında aktarıldığı gibi, AI tarafından hazırlanmış metinlere güvenmek, hafızayı ve öğrenmeyi zayıflatabilir çünkü bireyler bilgiyle yüzleşmek yerine AI üretimini kabullenir.
2. AI’ya Aşırı Bağımlılığın Bilişsel Maliyetleri
Tablo 2.1. Bilişsel Maliyetler
Risk – Neden – Sonuç – Tedbir Tablosu)
| Alt Alan | Risk | Neden (Bilişsel Mekanizma) | Olası Sonuç | Önleyici / Dengeleyici Tedbir |
|---|---|---|---|---|
| Yaratıcılık ve fikir çeşitliliği | Fikir tekdüzeliği (hive mind) | AI’nın ortalama/veri-merkezli yanıt üretmesi | Özgünlük kaybı, inovasyonun zayıflaması | AI çıktılarının bilinçli çeşitlendirme için sorgulanması |
| Eleştirel çaba | Düşünsel tembellik | Muhakemenin AI’ya devredilmesi | Yargı yetisinin körelmesi | AI çıktılarının gerekçelendirilmesini zorunlu kılmak |
| Kendine güven | Öz-yeterlik düşüşü | “AI daha iyi bilir” varsayımı | Karar alma cesaretinin azalması | İnsan muhakemesinin ayrı değerlendirilmesi |
| Hafıza ve öğrenme | Yüzeysel öğrenme | Bilgiyle doğrudan temasın azalması | Kalıcı öğrenmenin zayıflaması | Kaynakla birebir etkileşimi teşvik eden kullanım |
3. AI’yı Düşünce Aracı Haline Getirmek: Tasarım İlkeleri
Advait Sarkar, AI’yı sıradan bir “asistan” olarak kullanmak yerine, düşünceyi destekleyen araçlar (tools for thought) olarak tasarlamanın yolunu önerir. Bu yaklaşımın bilimsel temelini, insan-AI etkileşimi araştırmalarıyla birlikte değerlendirmek bize derin bir perspektif sunar.
3.1 “Üretken Direnç” (Productive Resistance)
AI’nın düşünceyi öldürmesinin önlenmesindeki ilk adım, sistemlerin kullanıcıyı “yapması gerekenleri otomatik” sunmak yerine sorgulamaya itmesidir. Bu tür tasarım yaklaşımı, AI’yı düşünceyi kolaylaştıran değil, zorlayan bir araç hâline getirir — örneğin AI, önemli varsayımları sorgulayan provokasyonlar sunabilir.
3.2 Materyal Etkileşimini Korumak
Araştırmalar, bilgiyi doğrudan materyalle etkileşime girerek işleyen bireylerin daha derin öğrenme ortaya koyduğunu gösterir. Sarkar’ın önerdiği prototip gibi sistemler, belgelerin özetlenmesinden öte, kullanıcının kaynağı okumasını, stratejik olarak not almasını ve AI eleştirilerini göz önünde bulundurmasını teşvik eder.
3.3 Metakognisyonu Desteklemek
Metakognisyon, kişinin kendi düşünce süreçlerini değerlendirme yeteneğidir. AI tasarımı, sadece yanıt üretmekle kalmamalı; kullanıcının hedefleri, yöntemleri ve değerlendirmeleri üzerine düşünmesini teşvik etmelidir. Bu, AI’nın tek görevi “cevap vermek” olan araç yerine, soru sormasını ve alternatif yollar önermesini sağlar.
Tablo 3.1. AI’yı Düşünce Aracı Haline Getirmek: Tasarım İlkeleri
(Sorun – Tasarım İlkesi – Beklenen Etki Tablosu)
| Sorun Alanı | Önerilen İlke | Uygulama Biçimi | Bilişsel Kazanım |
|---|---|---|---|
| Otomatik cevap bağımlılığı | Üretken direnç | AI’nın varsayımları sorgulaması | Analitik düşünme artışı |
| Pasif okuma | Materyal etkileşimi | Kaynakla doğrudan çalışma zorunluluğu | Derin öğrenme |
| Metakognitif zayıflık | Metakognisyon desteği | AI’nın “neden böyle düşündün?” soruları | Öz-düşünüm becerisi |
| Yönsüz kullanım | Süreç görünürlük tasarımı | Akıl yürütme adımlarının açığa çıkarılması | Muhakeme şeffaflığı |
4. Eleştirel Düşünceyi Korumanın Eğitimsel Boyutu
AI ile çalışmanın sadece iş dünyasını değil, eğitimi de dönüştürdüğü açıktır. Eğitim bilimleri alanında yapılan çalışmalar, yeni nesil eğitim modellerinin öğrencinin eleştirel düşünme ve problem çözme becerilerini geliştirmeye odaklanması gerektiğini vurgular. AI kullanımı, ancak öğrenciyi düşünce süreçlerine katarsa ve öğretmen rehberliğiyle birlikte eleştirel sorgulamayı teşvik ederse öğrenme gücü artar.
4.1 Bloom’un Taksonomisi ve AI
Bloom’un Taksonomisi’ne göre kritik düşünce, sadece bilgi hatırlamayı değil; analiz, sentez, değerlendirme ve yaratma gibi üst düzey süreçleri içerir. AI sistemleri, bu becerilerden sadece ilki olan hatırlamayı kolaylaştırabilir — ama analizi, sentezi ve değerlendirmeyi sadece insan zihninin çabasıyla mümkündür. Bu nedenle eğitimciler, AI’yı sadece bilgi kaynağı olarak değil, düşünceyi tetikleyen bir araç olarak konumlandırmalıdır.
Tablo 4. 1. Eleştirel Düşünceyi Korumanın Eğitimsel Boyutu
(Risk – Eğitimsel Sonuç – Önleyici Eğitimsel Tedbir Tablosu)
| Risk | Eğitimde Ortaya Çıkan Sorun | Uzun Vadeli Etki | Pedagojik Tedbir |
|---|---|---|---|
| AI’nın bilgi kaynağına indirgenmesi | Ezbere dayalı kullanım | Üst düzey düşünme becerilerinin kaybı | AI’nın soru üretici rolü |
| Analiz–sentez eksikliği | Bloom’un üst basamaklarının ihmal edilmesi | Eleştirel düşünme gerilemesi | Değerlendirme temelli görevler |
| Öğrenci pasifliği | Öğrenme sürecine katılım düşüşü | Bağımlı öğrenen profili | Öğretmen rehberli AI kullanımı |
| Ölçme kolaycılığı | Hızlı ama yüzeysel çıktı | Gerçek öğrenmenin ölçülememesi | Süreç odaklı değerlendirme |
Sonuç: AI ile Daha İyi Düşünmek — Bir Seçim, Bir Sorumluluk
Bugün AI’ya erişim çoğumuz için sıradandır; ancak bu aynı zamanda “düşünmeme” riskini de barındırır. Advait Sarkar’ın TED konuşması, yalnızca hızlı cevaplara ulaşmanın değil, derin düşünme becerilerimizi korumanın önemini vurgular. AI, yalnızca görevleri tamamlayan bir iş arkadaşı değil; düşünceyi uyaran, eleştiriyi teşvik eden, metakognisyonu destekleyen bir araç hâline getirilebilir.
AI’nın insan düşüncesini öldürmesini engellemek, sadece doğru teknoloji tasarımı değil; aynı zamanda insanın düşünce yeteneğine yatırım yapmak, sorgulamayı öğretmek ve eleştirelliği değer hâline getirmek ile mümkündür. Makine bizim yerimize düşünürken, biz de düşünmeyi bırakmamalıyız.
Ek- 1: AI–Eleştirel Düşünme Dengesi için Genel Çerçeve
| Düzey | Öneri | Amaç |
|---|---|---|
| Bireysel | AI çıktısını gerekçelendirme alışkanlığı | Muhakemeyi korumak |
| Kurumsal | AI kullanım protokolleri | Standart düşünce kalitesi |
| Eğitimsel | AI ile tartışma temelli öğrenme | Eleştirel aklı canlı tutmak |
| Tasarımsal | “Yanıt değil soru üreten AI” | Düşünceyi provoke etmek |
Kaynaklar
-
Sarkar, A. (2025). How to Stop AI from Killing Your Critical Thinking [TED Talk]. TED AI Vienna.
-
Sarkar, A., Drosos, I., Xu, X., Toronto, N. (2025). “It makes you think”: Provocations Help Restore Critical Thinking to AI-Assisted Knowledge Work. arXiv preprint.
-
Sarkar, A. (2024). AI Should Challenge, Not Obey. Commun. ACM.












