Yapay Zekânın Politik İnşası serimizin bu bölümünde, Özgür Narin ve Diyar Saraçoğlu’nun, “Yapay Zekâya Direnmek” kitabının yazarı, akademisyen Dan McQuillan ile gerçekleştirdikleri söyleşiye yer veriyoruz.
Yapay zekânın tarihsel, siyasi ve ideolojik bir proje olarak nasıl biçimlendiğinin ele alındığı söyleşide, öjeni ve beyaz üstünlükçülük gibi akımların günümüz yapay zekâ geliştirme süreçlerine nasıl sızdığını anlatan McQuillan, veri ekstraktivizmi, algoritmik otoriterlik ve optimizasyon konularında çarpıcı uyarılarda bulunuyor. Aynı zamanda, giderek belirginleşen “faşizan çözümcülük” eğiliminin aksine, dayanışma temelli hareketlerin, işçilerin ve toplulukların karar alma süreçlerinde söz sahibi olmasını sağlayacak alternatifler geliştirme imkânlarını tartışıyor.
“Yapay genel zekânın özünde ırksal üstünlük inancı var”
Yapay zekâ, teknik gelişiminin yanı sıra bir ideolojik proje olarak da görülebilir mi? Yapay zekânın temel sorunlarını tarihsel bir yaklaşımla nasıl görüyorsunuz?
Hiçbir gelişmenin “sadece” teknik olduğunu düşünmüyorum. Tüm teknolojiler, tarih, siyaset ve toplumsal hayal gücümüzün derinliklerinde kök salmıştır. Bu nedenle, teknik ve siyasi yönlerin tıpkı DNA sarmalları gibi iç içe geçtiği bir teknosiyasi çerçeveden bakmak daha faydalı olacaktır. Özellikle yapay zekâ, belirli bir tür sonuç üretmek üzere uyum içinde hareket eden kavramlar, yatırımlar, politikalar, kurumlar ve öznelliklerin bir araya geldiği bir aygıttır. Yapay zekâ söz konusu olduğunda, taşıdığı tarihsel akımlar arasında öjeni ve beyaz üstünlükçülük de yer alır.
“Yapay Zekâya Direnmek” başlıklı kitabınızda da değindiğiniz üzere, yapay zekâ ile faşizmin tarihsel gelişimi arasında paralellikler veyahut kesişimler söz konusu mu?
En doğrudan bağlantı, “ölçülebilir zekâ” fikrinde yatıyor. Kitabımda, yapay zekânın kökenlerini Francis Galton ve Karl Pearson gibi Viktorya dönemi öjenistlerine kadar izleyebileceğim yolu tartışıyorum. Pearson’ın öjeni için geliştirdiği matematiksel araç -doğrusal regresyon- makine öğrenmesinin büyük bir kısmının temelini oluşturuyor. Daha çarpıcı olan ise, bu çalışmaların “ırksal üstünlük” mitini bilimselleştirmek üzere tasarlanmış IQ testlerine ve “genel zekâ” kavramına (Yapay Genel Zekâ, YGZ’deki “G” harfi) açıkça zemin hazırlamasıdır.[1] Bu ideolojik pratikler, 1920’lerin ABD ırk yasalarını Nazi rejimine bağlayan doğrudan bir hat oluşturur. Başka bir deyişle, OpenAI ve DeepMind gibi şirketlerin kurulmasına yol açan yapay genel zekâ inancı, özünde ırksal ve biyolojik üstünlük inancıdır. Bu nedenle, Silikon Vadisi ile faşizan siyaset biçimleri arasındaki giderek belirginleşen örtüşmeyi gördüğümüzde şaşırmamalıyız.
“Yatay ve doğrudan hesap verebilir sistemler kurulmalı”
Yapay zekânın, mevcut eşitsizlikleri ve adaletsizlikleri artırarak algoritmik otoriterliğe yol açabileceğini ifade ediyorsunuz. Bu sürecin nasıl işlediğini ve hangi mekanizmalarla bu eğilimin tersine çevrilebileceğini düşünüyorsunuz?
Bu, makine öğrenmesi ve bürokrasinin birleşiminde genel bir eğilim, çünkü bu teknoloji kurumsal kararlarla yaşanan deneyim arasındaki mesafeyi artırıyor. Yapay zekânın tahminleri, opaklığı nedeniyle hukuki süreç olasılığını ortadan kaldıran indirgemeci soyutlamalardır. Bu durum, Hannah Arendt’in “düşüncesizlik” dediği şeye dönüşür; Arendt bu kavramla, bürokratların savunmasız insanlara şiddetli zarar verecek şekilde faaliyet göstermesine olanak tanıyan sorgulama eksikliğini kastediyordu. Yapay zekâ, insanların temel ihtiyaçlarını karşılamasını engelleyen yapısal sorunlara bir “çözüm” olarak sunuluyor, ancak aslında durumu daha da kötüleştiriyor. Bu sistemlerdeki otoriterlik, Trump ve Musk gibi oligarklar iktidara gelmeden önce bile mevcuttu. Bunu tersine çevirmenin yolu, sözde liberal devletin düzenleyici mekanizmalarını parçalayarak yerine daha federatif, yatay ve doğrudan hesap verebilir sistemler kurmaktan geçiyor.
Yapay zekânın tekno-toplumsal doğasının, teknik bileşenlerin toplumsal süreçler tarafından şekillendirildiğini ve bunun tersinin de geçerli olduğunu belirtiyorsunuz. Bu etkileşimin yapay zekâ uygulamalarındaki yansımalarını nasıl değerlendiriyorsunuz?
Yapay zekâ, doğrudan neoliberal bir toplumsal vizyonun yansımasıdır; çünkü bizi sadece bireyler olarak değil, Deleuze’ün “bölünebilir şeyler” (dividuals) dediği veri parçalarına ayırıyor, ardından piyasa mantığıyla işleyen algoritmik spekülasyon mekanizmalarıyla bu verileri optimize etmeye çalışıyor. Böylece, yapay zekânın yayılmasıyla birlikte toplumsal etkileşimler her alanda daha da otomatikleşiyor, toplumsal deneyim ise giderek farklı algoritmaların icrasına dönüşüyor.
“Bu verilerin ne kadarına gerçekten ihtiyacımız var?”
Verinin kapitalist üretim ilişkileri içerisindeki bugünkü merkezi rolüne ve yapay zekânın büyük veri bağımlılığını göz önünde bulundurursak, bu veri bağımlılığı, yapay zekânın hem bireyler hem de topluluklar üzerinde kurduğu tahakkümü nasıl meşrulaştırıyor? Alternatif veri yönetimi modelleri geliştirmek mümkün mü?
Bence işçiler ve yurttaşlar olarak yaşadığımız veri ekstraktivizmini[2] asıl meşrulaştıran şey, yapay zekânın kendisi. Yapay zekâ giderek artan miktarda veriye bağımlı, bu yüzden “yapay zekâ üstünlüğü” uğruna her türlü veri koruma veya mahremiyet ilkesi kolayca göz ardı ediliyor. Daha demokratik ya da topluluk odaklı veri yönetişimi fikirleri üzerine çalışan pek çok kişi var, fakat benim esas sormak istediğim şu: Bu verilerin ne kadarına gerçekten ihtiyacımız var?
Elbette belirli durumlarda verinin faydasını yok saymıyorum; ancak verileştirme ve veri odaklı çözümler paradigmasının kontrolden çıktığını ve bizi alternatif çözüm yollarından uzaklaştırdığını düşünüyorum. Üstelik veriye dayalı ve öngörüye yönelik yöntemlerin birçok toplumsal bağlamda etkili olmadığı da açık. Dolayısıyla, herhangi bir durumda demokratik veri yönetişimine geçmeden önce kendimize sormamız gereken soru şu: Bu durumu gerçekten veriye dönüştürmek zorunda mıyız? Sadece “devlet gibi görmek” ile mi yetiniyoruz? Eğer öyleyse, durumu değerlendirmek ve hangi müdahalelerin gerekli olduğuna karar vermek için başka hangi yöntemleri kullanabiliriz?
Veri etiketleme gibi düşük ücretli işlerde çalışanların katkıları bu teknolojilerin üretim sürecinde nasıl arka planda kalıyor ve özellikle Büyük Dil Modelleri’nin (LLM) geliştirilmesinde emek nasıl görünmez hale getiriliyor? Bu görünmez emek ilişkileri, yapay zekânın siyasi yapısı hakkında bize ne söylüyor?
Günümüzdeki yapay zekâ dalgası, ImageNet veri setiyle başladığından beri, düşük ücretli işçilerin emeği kasıtlı olarak görünmez kılındı. Bu durum, özellikle Küresel Güney’de konumlandırılan kitle kaynaklı sanal emek kullanılarak gizlendi. Büyük Dil Modelleri (LLM’ler) ise bu süreci daha da görünmez hâle getiriyor, çünkü etiketlenmiş veriye ihtiyaç duymuyorlar. Örneğin, bir görüntü sınıflandırma yapay zekâsı için “kedi”, “araba” veya “insan” gibi etiketlenmiş binlerce görsele ihtiyaç varken, LLM’ler “kendi kendini denetlemeli öğrenme”[3] örneği. Algoritmalar, doğrudan insan müdahalesi olmadan veriden örüntüleri çıkarıyor. Ancak yine de insanlara ihtiyaç duyuyorlar, çünkü aksi takdirde toksik çıktılar üretiyorlar. Ham bir büyük dil modelini ırkçı, Nazi sempatizanı söylemler üretmeye veya tecavüz gibi konularda konuşmaya kolayca ikna edebilirsiniz, çünkü bu tür fikirler eğitim verisinde zaten mevcut.
İnsan emeğine olan yeni ihtiyaç, LLM’lerin ürettiği çirkin ve kabul edilemez çıktıları bulup sansürlemek. Bu da, yoksul ülkelerdeki insanların çocuk istismarı gibi en kötü türden içerikleri gözden geçirmesi anlamına geliyor; böylece geri kalanımız bunlara maruz kalmıyor. Daha geniş anlamda, bu durum şirketlere LLM’lerin neyi “kabul edilemez” sayacağına karar verme gücü veriyor ki bu son derece siyasi bir iktidar biçimi. Sansür yalnızca müstehcen içerikle sınırlı değil; tarihsel gerçekler ve siyasi fikirler de bu sürece dahil. Büyük Dil Modelleri’nin bilgiye erişimin ana yolu hâline geldiği bir dünyada, “normal” ve “kabul edilebilir”in tanımları tamamen teknoloji şirketlerinin kontrolünde.

“Yapay zekâ sistemleri nekrosiyasidir”
Kitabınızda yapay zekânın nekrosiyasetle, yani bazı hayatları gözden çıkarılabilir hâle getirme süreçleriyle ilişkisini tartışıyorsunuz. Örneğin, göçmenlere veya işçilere yönelik algoritmik sistemler bu şiddeti nasıl yeniden üretiyor? Bu bağlamda, yapay zekânın ölümcül sonuçlarını önlemek için hangi yapısal değişikliklere ihtiyaç var?
Yapay zekâ sistemleri nekrosiyasidir, çünkü insan hayatlarının zaten farklı değerler atfedilerek görülme biçimlerini yoğunlaştırırlar. Yapay zekâ, toplumdaki toplumsal ve yapısal hiyerarşileri emer ve onları büyütmek için “optimizasyon” adı altında faydacı bir mantık uygular. Bu optimizasyon mantığını marjinalleştirilmiş hayatlara uygulamak, kaçınılmaz olarak bir tür “filika etiği” yaratır: “Değerli” azınlık kurtarılsın diye çoğunun yok olmasına izin verilir. Bence, yapay zekânın toplumumuzda bu kadar işçi karşıtı bir yapıda ortaya çıkması tesadüf değil. Zira yapay zekâyı üreten kurumsal yapılar ve bilgi-üretim yapılarının kendisi, sıradan insanların gücünden nefret ve korku üzerine inşa edilmiştir.
Yapay zekânın ölümcül sonuçlarını engellemek için hangi yapısal değişimler gereklidir? Bu soru, toplumsal adaleti sağlamak ve çevresel yıkımı dizginlemek için gereken değişimleri sormakla aynı şeydir. Yapay zekânın nekrosiyasetinin sahnelenişini izlemek ne kadar iç karartıcı olsa da, bu durum toplumsal hareketler arasında yakınlaşma imkânı da yaratıyor. Çünkü yapay zekânın zararlı etkileri hayatın o kadar çok alanında hissediliyor ki, baskıcı teknolojinin en yoğunlaşmış hâli olarak yapay zekâ, belki de direniş koalisyonlarının odak noktalarından biri hâline gelecek. İşte bu, benim hesaplamayı reddetme “decomputing” adını verdiğim geniş tabanlı hareket için fikirler geliştirme motivasyonum.
Trump döneminin kötü, Trump öncesi veya sonrasının ise iyi olduğu gibi bir dikotomiye düşmeden, Musk, Zuckerberg, Pichai ve Bezos gibi teknoloji oligarklarının Trump’ın başkanlık yemin törenine katılmalarını göz önünde bulundurursak, büyük teknoloji liderlerinin faşist (veya neofaşist/yeni sağcı) rejimlerle kurdukları ilişkiler üzerine nasıl düşünmeliyiz? Önümüzdeki günlerde bu figürlerin Trump benzeri liderlerle işbirliği, yapay zekâ ve bağlantılı teknolojilerin baskıcı, ayrıştırıcı ve tahakkümcü politikaların inşasındaki rolünü nasıl şekillendirebilir?
Trump 2.0 döneminde gördüğümüz şey, kitabımda bahsettiğim teknosiyasetin tam olarak belirmesi diyebiliriz. Kitabım, yapay zekânın “faşizan çözümcülük” eğilimleriyle Silikon Vadisi ideolojileri olan rasyonalizm ve neogericilik arasındaki bağlantılara dair bir uyarıydı. Yapay zekâya, olgusal bir soruya faydalı bir cevap vermesi için güvenemeyiz; ancak soru ne kadar komplo teorisine dayalı ya da ne kadar yanılsamalı olursa olsun, mutlaka bir cevap üretir. Elon Musk’ın DOGE[4] ekibinin, “çeşitlilik” ve “kapsayıcılık” gibi nefret edilen kavramlara hayali bağlantılar kurarak hangi paraları keseceğine ve kimi işten çıkaracağına karar vermek için LLM’leri kullanma biçiminde bunun teknofaşist gündem için ne kadar işlevsel olduğunu görebiliriz. Kitabımda da yazdığım gibi: “Derin öğrenme, nedensellikten yoksun olup yalnızca sorunlu iktidar ilişkilerini pekiştiren sorulara cevaplar üretebilir.”
“Birleşik Krallık’taki sağlık sistemi çökme noktasına geldi”
Türkiye’de nüfusun büyük bir kısmının sağlık verileri devletin kontrolünde merkezileşiyor. Bu durum, yapay zekâ, sağlık ve sigorta alanlarında faaliyet gösteren kapitalist şirketler için büyük bir hedef oluştururken, aynı zamanda bu veriler salgınlar ve afetler sırasında etkin bir şekilde kullanılamadı. Türkiye’de bu verileri üretenler, Türk Tabipleri Birliği ve Bilgisayar Mühendisleri Odası üyeleri bir araya gelip ortak bir kurul kurduk ve veri ile yapay zekâ uygulamalarında işçi denetiminin nasıl olması gerektiğine dair tartışmalar yürütüyoruz. Bildiğimiz kadarıyla İngiltere’de de DeepMind’ın NHS (Ulusal Sağlık Sistemi) verilerine erişimiyle ilgili benzer bir tartışma yaşandı. Peki, sağlık verilerinin merkezi olarak toplanması ve kullanımıyla ilgili tartışmalar şu anda İngiltere’de nasıl bir çerçevede ilerliyor?
Birleşik Krallık’taki durum kötü ve giderek daha da kötüleşiyor. Önceki Muhafazakâr hükümet, merkezi NHS veri deposu sözleşmesini, esas işi ABD istihbarat kurumları ve ordu için veri analizi yapmak olan Palantir şirketine verdi. Yeni İşçi Partisi hükümetinin yön değiştirmesi beklense de, onlar da yapay zekânın “büyüme” misyonlarının merkezinde olması fikrini tamamen benimsedi. Sonuç olarak, sağlık ve diğer verilerin yapay zekâ şirketleriyle kâr amaçlı olarak paylaşılmasını kolaylaştıran ve hayatımızla ilgili otomatik kararlar veren algoritmalara itiraz etmeyi zorlaştıran yasalar çıkarıyorlar. Birleşik Krallık’taki sağlık sistemi çökme noktasına gelmiş durumda ve aslında insana ve altyapıya yatırım yapılması gerekiyor, ancak hükümet sadece yapay zekânın bizi kurtarabileceği saplantısına takılmış görünüyor.
“Alternatif gelecekler tasarlamak hayati önem taşıyor”
Kitabınızda da belirttiğiniz gibi, yapay zekânın endüstrinin çeşitli kesimlerine yayılması, iş kaybından çok sıradanlaştırılmış ve güvencesiz işlerin artmasına yol açıyor. Aynı zamanda, yapay zekâ ve bağlantılı teknolojileri geliştiren emekçilerin, ürettikleri yazılımlar ve teknolojiler üzerinde kontrol sahibi olmaktan uzaklaştığı bir dönemdeyiz. Bu teknolojilerin, toplumsal fayda yerine şirket kârları, gözetim, yıkım ve işgal amaçları doğrultusunda kullanılması da durumu daha da ağırlaştırıyor. Bu koşullar altında, daha küçük ölçekte, örneğin yapay zekâ geliştiricileri ile veri etiketleme işçileri veya yazılım mühendisleriyle Amazon depo ve teslimat işçileri arasında bir dayanışma ve karşı strateji geliştirilmesi mümkün olabilir mi? Bu tür mikro düzeydeki işbirliklerinin, üretim süreçlerinde söz sahibi olmayı ve güvenceli çalışma koşullarını sağlamayı hedefleyen daha geniş ölçekli, yeni bir Lucas Planı’na dönüşme potansiyeli var mı? Eğer mümkünse, bu dayanışma ve örgütlenme modeli nasıl inşa edilebilir?
Böylesi bir dayanışmanın her zaman mümkün olduğunu ve kitapta da belirttiğim gibi yakın tarihte harika örneklerinin bulunduğunu söyleyebilirim. Şu andaki düşünceme göre, büyük ya da küçük kriz anları bu dayanışmayı tetikliyor. Mevcut koşulların ataleti bizi özne olarak yerimizde tutma eğilimindeyken, hayal gücümüzün sınırları da neoliberalizmin altında “mümkün” olanla belirleniyor. Ancak statükoyu sarsan olaylar, insanları yeni eylem biçimlerine yöneltebiliyor. Örneğin Lucas Planı bile, Lucas fabrikalarındaki ani işten çıkarmalar tehdidiyle ortaya çıktı.[5] Bu tür tetikleyicilerin nereden geleceğini kestirmek ise imkânsız; güncel olaylara bakarsak, toplu sınır dışı etmeler karşısında duyulan ortak öfke veya iklim değişikliğinin tetiklediği bir doğal felaket sonrasında toparlanma ve onarma ihtiyacı böyle bir tetikleyici olabilir.
Bu dayanışma hangi biçimi alırsa alsın, tarih bize, beklenen çöküş anlarına hazırlanmak için yapıların ve kavramların hazır hâle getirilmesi adına bazı insanların arka planda hazırlık çalışmaları yürütmesi gerektiğini gösteriyor. Bu, tabandan gelen sendikal örgütlenmeden topluluk temelli anti-faşist hareketlere ve dayanışma ile karşılıklı yardımla başlamayı hedefleyen her türlü faaliyeti kapsar. Benim için önemli olan, bu çalışmaların amacının yalnızca durumun etkilerini hafifletmek değil, gerçekten dönüştürmek olarak anlaşılması. Günümüzün sonu gelmeyen toplumsal şiddetinin yerine geçebilecek yeni dünyalar öngörmek ve alternatif gelecekler tasarlamak hayati önem taşıyor.
Dipnotlar:
[1] Dan Mcquillan’ın “genel zekâ” (g-factor) olarak atıfta bulunduğu kavram, bireysel düzeydeki “ölçülebilir zekâ” fikrini ifade ediyor ve psikometri geleneğine dayanıyor. Yani burada bahsi geçen “genel zekâ”, IQ gibi testlerle ölçülebileceği varsayılan, bireyin zihinsel performanslarını açıklayan ortak bir faktördür. Buna karşılık Karl Marx’ın Grundrisse’de ifade ettiği “General Intellect” (Türkçede yine “genel zekâ” olarak geçiyor), toplumsal düzeyde üretim sürecine yerleşmiş kolektif bilgi, bilim ve teknolojiyi anlatır. Bu kavram, bireysel zekâdan çok, üretimin toplumsal boyutta bilgi ve emek birikimiyle nasıl şekillendiğine işaret eder.
[2] Ekstaktivizm, geleneksel olarak doğal kaynakların sömürülmesiyle ilişkilendirilse de, dijital çağda yeni bir boyut kazanarak veri alanına da yayılıyor. Bu süreçte, bireylerin ve toplulukların dijital izleri, genellikle rıza mekanizmalarından yoksun ya da sınırlı şeffaflıkla toplanarak, büyük ölçekli analiz ve tahmin modellerinin hammaddesi haline geliyor.
[3] Kendi kendini denetlemeli öğrenme (self-supervised learning), verinin içsel yapısını kullanarak etiket üreten bir makine öğrenmesi yöntemidir. Geleneksel denetimli öğrenmeden farklı olarak, veriye dışarıdan insan etiketlemesi gerektirmez; bunun yerine, verinin bir kısmını girdi, diğer kısmını hedef çıktı olarak kullanır.
[4] Donald Trump’ın yeniden ABD başkanı seçilmesinin ardından, federal hükümetin harcamalarını azaltmak ve verimliliği artırmak amacıyla kurulan Hükümet Verimliliği Departmanı.
[5] Lucas Planı, 1970’lerde İngiltere’de Lucas Aerospace şirketinde çalışan işçilerin, işten çıkarma tehdidine karşı geliştirdiği radikal bir işçi örgütlenmesi ve alternatif üretim planıdır. Şirket yönetimi, ekonomik kriz gerekçesiyle binlerce işçiyi işten çıkarmayı planladığında, sendikalar ve teknik personel, “kâr değil, toplumsal ihtiyaç” sloganıyla bir araya gelerek alternatif şirket planı hazırladı. Bu plan, askeri üretimden insan hayatını iyileştiren teknolojilere geçişi öngörüyordu: Tıbbi cihazlar, engelli erişim sistemleri, rüzgâr türbinleri ve toplu taşıma araçları gibi 150’den fazla “toplumsal fayda sağlayan ürün” önerisi içeriyordu. İşçiler, mühendislik becerilerini savaş endüstrisi yerine ekolojik ve toplumsal sorunlara çözüm üretmek için kullanmayı hedefliyordu.
(DS/ÖN/VC)