Home / TEKNOLOJİ / Yapay Zeka, Otoriterlik ve Siyasal Sistemlerin Geleceği.

Yapay Zeka, Otoriterlik ve Siyasal Sistemlerin Geleceği.

Şubat 2017’de Scientific American’ın sorusu etrafında dönen özel bir sorun vardı: “Demokrasi büyük veri ve yapay zekadan kurtulacak.”  Konuya göre, insanlık büyük bir teknolojik dönüşümden geçiyor ve büyük ölçekli bir gelişmeye başladı. Sosyal ve davranışsal otomasyon, insan toplumlarının nasıl organize edileceğini ve yönetileceğini değiştirecektir. Daha sonra Ağustos 2017’de Oxford Üniversitesi’nde araştırmacı olarak çalışan Vyacheslav Polonski, yapay zekânın “güçlü bir şekilde demokrasiyi ele geçirdiğini” ve yapay zekanın dijital destekli reklamların, sosyal medya platformu gücünün ve kitle iletişim spoilerlerinin  etkisini gösterdiğini iddia etti. (Spoiler hassas medya içeriği yada eserin detaylı konusu anlamına gelmektedir. Bir filmi henüz izlemeden yada bir kitabı okumadan önce çeşitli mecralarda o eser hakkında detaylı bilgiler veren, öncesinde bunları okumanız halinde film yada kitaptan alacağınız haz yada lezzeti azaltan ipucu anlamına gelir.)

Politik süreçlerde botlar ve troller

Çevrimiçi ve çevrimdışı, çoğunlukla kendi iradelerine ve farkındalıklarına karşı olan toplumlar, büyük ölçekli otomasyonun etkilerini giderek daha fazla yaşıyor. Siyasi sistemler, seçimler, karar alma ve vatandaşlık da giderek farklı sistemik seviyelerde otomasyon ve algoritmik sistemlerin yönleri veya yan ürünleri tarafından yönlendirilmektedir. Bu sistemler, hedeflenen siyasi reklamlardan yüz tanıma, otomatikleşmeden, kutuplaşmayı yoğunlaştıran, internet tabanlı kitlesel katılımlı kamuoyu araştırmalarına kadar, otomasyon faktörleri tarafından kolayca eğrilenler arasındadır.

Dijital iletişim, politika ve otomatik sistemler arasındaki bu kritik ve tarihsel etkileşimin merkez üssünde. Siyasal iletişim profesörü Andrew Chadwick, sosyal medya platformları tarafından gerçekleştirilen çok sayıda role atıfta bulunan “hibrit medya sistemi” terimini ilk kez kullanan kişiydi. Hibrid medya sistemi teorisine göre, Twitter, Facebook veya Instagram gibi platformlar sadece iletişim araçları değil, aynı zamanda acil durumlarda haber medyası rollerinin yanı sıra seçimler veya önemli olaylar gibi yarışma olayları sırasında siyasi meclis ve protesto rolleri de gerçekleştiriyor. Bu nedenle, bu platformların algoritmik yapısı, politik mesajlaşma, bilgi arama ve vatandaş katılımını giderek daha fazla etkilemekte ve şekillendirmektedir. Jose van Dijck’in deyimiyle, “Sosyal medya, kaçınılmaz olarak bağlantıları denetleyen ve yöneten otomatik sistemlerdir.”  Bu bakımdan, Facebook, arkadaşları ve akrabalarını birbirine bağlayan pasif bir platform değildir. Kullanıcılarından aktif olarak kişisel bilgi toplayan ve üçüncü şahıslara satan, yaşayan ve nefes alan bir politik aktördür.  Bu veriler, Cambridge Analitik skandalı sırasında en son gözlemlenen hedefli reklam, mikro profilleme ve politik davranış analizi için kullanılabilir.  Twitter, Amazon, Netflix ve diğer algoritmik platformlar da, benzer şekilde çok miktarda granüler insan verilerinin toplanması ve kullanılması üzerine yapılandırılmış, bunlar da toplumların davranış kalıplarını profillemek ve kataloglamak için kullanılmaktadır

Tıpkı medya platformlarının melez olduğu gibi, veri türleri de öyle. ‘Melez veriler’, çevrimiçi insan ayak izinin çok amaçlı yapısını ifade eder; Örneğin, insanların nasıl olduğu gibi, retweetler ve check-in kararları, sosyal davranışların mikro ve makro düzeydeki belirleyicilerinin çok boyutlu bir görüntüsünü oluşturmak için birbirleriyle çapraz beslenecek şekilde toplanabilir.  Bir kullanıcının kişisel fitness izleyicisi, check-in konum bilgileri ve Google arama geçmişleri bir araya getirildiğinde, bu kişinin sağlığından, satın alma davranışından ve politik tercihlerinden çok ayrıntılı bir bilgi kümesi sağlayabilir. Bu kişisel veri melezliği, benzer arama geçmişlerine, zevklere ve çevrimiçi düzen kalıplarına sahip insanlarla çapraz eşleştiğinde kitlesel gözetlemenin bilgi altyapısını oluşturur ve en büyük sosyal izleme ve izleme havuzu haline gelir.  Böyle bir gözetim artık eskiden olduğu kadar emek-yoğun değil; Kütle profilleme altyapıları da büyük ölçüde algoritmaya dayalıdır. Bu otomasyon yapılarını geliştirmekten ve sürdürmekten sorumlu olan algoritmalar, programcılar ve teknoloji şirketleri, böylelikle devletlerin yanı sıra uluslararası politik kurumlardan kısmen bağımsız olan yeni bir güç kaynağı oluşturuyorlar.  İnternet bağlantısı ve sosyal platform üyeliği küresel olarak patladığında, bu yeni otomatik güç ilişkilerinin altında yaşayan dünya nüfusunun yüzdesi katlanarak artıyor ve bu da otomatik siyasetin tarihi etkilerini ortaya koyuyor.

Modern algoritmik yapılar, 1940’ların sonlarında matematikçi Norbert Wiener tarafından ortaya konulan sibernetik teoriyi devralırlar. Wiener, tüm büyük sistemlerin (bürokratik, örgütsel ve mekanik) davranışlarının düzenli geri bildirimlerle ayarlanabileceğini ve sürdürülebileceğini savundu.  Sürekli geri bildirimlerle “öğrenerek”, sistemler adapte olur ve öğrenir ve sonunda daha iyi performans gösterir. Sibernetik teorinin temel dayanaklarından, otomatik yapıların (makine öğrenmesi, blok zincirleme, merkezi olmayan veri haritalama gibi) en popüler biçimlerinden bazılarının faaliyet göstermesidir. Algoritmalar canlı insan verileriyle eğitildiğinden, hızla insan davranışlarını taklit edecek şekilde davranır ve davranırlar. Örneğin, bir arama algoritması, sorgu dizgisine dayalı olarak en alakalı arama sonuçlarını sağlamak için tasarlanmıştır.  Zaman kazandırır ve çevrimiçi etkileşimleri daha anlamlı ve alakalı hale getirir. Ancak, bundan daha fazlasını yapar. Algoritma, bir arama motorunu kullanıcılar tarafından takip edilen sorguları daha hızlı ve daha iyi bir şekilde ele alabilmek için milyonlarca insanın arama geçmişlerini, ikinci ve üçüncü sıradaki arama dizelerini ve sayfa görüntüleme süresi istatistiklerini inceleyerek geliştirir.

Öyleyse, bu “otomatik ilişki yapıları” nın politik etkilerini bağlamsallaştırırız? Sonuçta, bu algoritmaların hiçbiri başlangıçta bu kadar geniş politik, ekonomik veya sosyal etki yaratmak için tasarlanmamıştı. Bir kemancıyı çevrimiçi müzikle ilgili daha fazla içerik bulmaya yönlendiren kod yapıları, toplumları kutuplaştırarak, politik yankı odalarını yoğunlaştırmak ve dijital alanda anlamlı bir politik tartışmayı çarpıtmaktır.

Bu kimin hatası?

Toplumlar teknolojik değişime bağlı olarak daha az hoşgörülü hale geliyorlar mı? Hükümetler bu ölçek teknolojilerini, otoriter hâkimiyetlerini yeniden ortaya koymak için kullanıyorlar mı? Yoksa bu, zaman içinde yerleşecek ya da uzun vadede devlet-toplum ilişkilerini etkilemek için kalıcı olarak algoritmik yapılar olan bir evrimsel eğri midir?

Mevcut tartışmalar, teknoloji şirketlerinin, stratejik konumlarını “yapay zeka silâhlanma yarışı’; Otomatik bilgi alma, etkileşim maksimizasyonu ve içerik iyileştirme. Büyük teknoloji şirketlerinin faaliyet gösterdiği iş modeli ortamı, katılım metriklerine bağlıdır: beğeniler, retweetler, yorumlar. Kârları en üst düzeye çıkarmak için teknoloji şirketleri, mümkün olduğunca çok sayıda kişiden olabildiğince çok yanıt alan içerik öneren katılımı en üst düzeye çıkarmalıdır.  Bu, benzer bir şekilde aşırı duygusal içerikten kaynaklanan aşırı veya duygusal davranışlar oluşturan algoritmik prensipleri otomatik olarak tetikler. Bir algoritmanın bakış açısına göre, kullanıcıların olumlu veya olumsuz bir içeriğe yanıt verip vermedikleri önemsizdir, çünkü neyin önemli olduğu nicelleştirilmiş kullanıcı istatistiklerinin en üst düzeye çıkarılmasıdır. Kullanıcı yanıtı en iyi duruma getirildiği sürece, kanlı savaş videolarından veya yavru fotoğraflarından bağımsız olarak bir algoritma işini yapıyor. Sayısallaştırılmış katılım, reklam geliri olarak nakde çevrildikçe, ortaya çıkan medya ortamı, tüm sosyal medya platformlarında toksik etkileşim kültürüne yol açan aşırı içerik ve medyayı desteklemektedir. Özellikle, protestolar, seçimler veya diplomatik tırmanış gibi gergin siyasi ve toplumsal olaylar, bu sosyal medya ortamı, sahte haberler ve botlar olarak bilinen otomatik hesaplar aracılığıyla yanlış bilgi üzerinde orantısız bir etki yaratmaktadır.

Popüler olsa da, sosyal medya, YZ’yı araştırmak için tek yol değildir. Ve siyaset. YZ-siyaset nexus’la ilgili bir diğer popüler tartışma, kararların otomasyona alınması meselesidir – yani, bürokrasinin günlük olarak makinelere dış kaynak kullanımı. YZ. Bürokrasinin argümanı bürokratik boyutu ve derinliği optimize etmek için politika oluşturmadan ziyade düşük riskli karar vermenin dış kaynak kullanımını desteklemektedir.  Hükümetlerin ve bürokratik uygulamaların daha verimli hale getirilmesi adına algoritmik sistemlerin kademeli olarak sıradan bürokrasinin işlevlerini devraldığı söylenir.  En azından Max Weber tarafından tanımlandığı gibi modern bürokrasi, algoritmaya dayalı, otomatik bir habitus için ideal bir adaydır: “Bürokrasi, birçok kural, standart süreçler, prosedürler ve gereksinimler, masa sayısı, titiz bölünme ile karakterize edilen organizasyonel bir yapıdır. emek ve sorumluluk, açık hiyerarşiler ve profesyonel, çalışanlar arasındaki neredeyse kişisel olmayan etkileşimler. ” YZ Gerçekten de, yolsuzluk, verimsizlik ve ego politikaları gibi devletin en kronik işlev bozukluklarından bazılarını çözebilir. Çok sayıda vatandaş talebine etkili bir merkezi yanıt verebilir, kaynak tahsisi sorunlarını çözebilir, yorgunluk veya tükenmişlik gibi insani hatalara karşı bağışık kalabilir ve konuşma, kopyalama, belge hazırlama ve arşivleme gibi tüm karar vermeyen görevleri gerçekleştirebilir. İnsan merkezli bürokrasiden daha iyi ve hızlı. Bununla birlikte, bürokratik aygıtların aşınması, görevlerin karar vermeden önce algoritmik yapılara aktarılması, modern devlet için en güçlü otorite kaynaklarından birini geçersiz kılacaktır: rasyonel bir bürokratik işgücü. Böyle önemli bir güç kaynağı ile otomatik ve insan etkisi minimize edilmiş, bazı devletler A.I. güçlendirilmiş totaliterciliğin koruyucusu olarak. Ayrıca, YZ şeffaflık ve kod hesap verebilirliği bu durumda daha da anlamlı olacaktır, çünkü programlamadaki önyargılar, hatalar algoritmik karar verme sürecinin büyük hacmi ve boyut kapasiteleriyle arttıkça yönetim üzerinde orantısız bir etkiye sahip olacaktır.

Otomasyon ve otoriter rejimler

 

Her ne kadar YZ son birkaç yılda demokrasiye zarar verecek ve otoriterizmi pekiştirecek, literatürde verilen ampirik cevaplar ya olumlu ya da olumsuz genel bir etki sağlamamaktadır. YZ bunun yerine insani ilerlemenin, herhangi bir rejim tipine karşı ya da lehine olan ideolojik önyargılara sahip olmadan, politik olarak tarafsız olması beklenir. Bu anlamda, YZ’yı düşünmek daha iyidir. Boyutu, ölçeği, uzaklığı ve hacmi tarihsel olarak etkileyen bir unsur olarak, baskı makinesi, televizyon ya da radyo gibi iletişim ilerlemelerinden ziyade, etkisini motor ya da elektriğe daha yakın hale getirerek (belirli bir politik ideolojiyi desteklemeyen) liberalleştirici vardiyalar uyguladı. Ancak, şimdiye kadar, YZ otomasyonun mevcut rejim türlerini nasıl değiştireceğine dair farklı yörüngeleri öne süren iki öncül alarmist fütürist geleneği getirdi: algoritmik feodalizm,  ve totaliterizm  varyantları.

YZ nin iki ana yorumu vardır.

Feodalist koşullar yaratabilecek üretim ilişkileri yaratabilir. İlk yorumlama, Habermas’ın muhafazakâr ve dağıtımcı tekel kavramlarını izleyerek, şeffaf olmayan ve hesap vermeyen teknoloji ve bilgi sistemlerinin nasıl politik katılımın ve temsilin cesaretini kırdığını açık bir şekilde anlatıyor. YZ. “kapalı bir teknoloji” olarak (algoritmaların politik ve sosyal yaşamı nasıl etkilediği, ancak etkiledikleri kullanıcılar tarafından nasıl değiştirilemeyeceği veya değiştirilemeyeceği), insan-makine etkileşimi üzerinde büyük yanlılıklara neden olur ve katılımdan ziyade merkezi kontrol yapılarını güçlendirir. Habermasçı feodalizmin yorumuna ek olarak, Marx-Engels’in feodalizmin yorumlanması, gücün üretim biçimlerini kontrol edenlerle birlikte bulunduğu algoritmik iktidarın toplumsal yönlerine odaklanır.  Bu durumda, algoritmik yapıları kontrol eden topluluklar, bu algoritmik toplulukları kontrol eden programcılar, kodlayıcılar ve şirketler olacaktır.

Habermasian ve Marx-Engels okullarının ana akım tartışmalarında algoritmik feodalizmin yaygınlığı olmasına rağmen, feodalizmin daha doğru bir tanımı sadece merkezi kontrol yapılarının ötesine geçmektedir. Feodalizm, doğrudan uygulamasında, bir askeri mantık üzerine yapılandırılmıştır: üç güç düğümünün kesişme noktasında faaliyet gösteren bir savaşçı kastının kurulması: Lordlar, vasiler ve önderler. Bu sistem, uzun vadede güvenliğin ancak maddi hizmeti maddi hizmet ile ilişkilendirerek kurulabildiği, doğal olarak anarşik bir siyasal sistemde koruma ve düzene olan artan ihtiyaçlara bir cevap olarak ortaya çıkmıştır. Korunmanın maddi faktörlerini (silah ve zırh üretme yeteneği, tren ve yem orduları) veya dini otorite (haberleşme, uşırma, nimet) sağlayabilenler, daha sonra hizmet veren geniş çaplı vassallar ve kabileler ağına hükmetti. yiyecek formu (serflik) veya parasal tazminat (vergilendirme). Bu nedenle, günümüzün bağlamında “algoritmik feodalizmin” doğru bir şekilde anlaşılması, öncelikle, güvenlik temininin finansal ve beşeri sermaye üretim biçimleriyle simbiyotik bir ilişki içinde olacağı bir anarşik sistemi gerektirecektir. Bu, tamamen anarşik olan dijital alanın (yani, hükümetin ve hukukun varlığının yokluğu) ve siber uzayda korunmanın, aktörlerin zengin finansal yapıları (reklam geliri ve kira üretimi) çok sayıda eğitme yeteneği ile ne kadar iyi birleştirebileceğine tamamen bağlı olduğunu varsaymaktadır. Son derece yetenekli dijital emek (siber güvenlik, veri bilimi veya mühendislik uzmanları).

Rusya Başkanı Vladimir Putin, Yandex’in CEO’su Arkady Vorozh ile yaptığı bir tartışmada, YZ kısa vadede dünyanın hükümdarı olacak. ”Elon Musk daha sonra Putin’in Twitter’daki sözlerini“ WW3’ün en muhtemel nedeni olan ulusal düzeyde AI üstünlüğü için rekabet ”ekleyen Twitter’da paylaştı.  Hem Putin hem de Musk ifadeleri, hem YZ’nin politik anarşi içindeki politik rolünü ve hem de küresel liderliği etkilerini aşmak için nasıl bir rol oynadıklarını göz önüne alarak, algoritmik feodalizmin üst düzey tasdiklerini oluşturmaktadır. Her ikisi de, ayrıca YZ bir iktidarın egemen olduğu ve diğerlerinin egemen olduğu, doğal olarak sıfır toplamlı bir oyun olarak ustalık. Putin’in ifadesi, hem askeri hem de askeri olmayan askeri uygulamalara işaret etmesine rağmen, ifadesinin geri kalanı, özel olarak, güvenlik araçları (güvenlik, siber güvenlik, 3D baskı) yerine, finans, sağlık hizmeti veya diğer askeri olmayanların otomasyonundan kaynaklanan tehditlere atıfta bulundu. AI uygulamaları Hem Putin hem de Musk, Emmanuel Macron’dan önemli ölçüde saptılar, örneğin, Fransa’nın A.I. Strateji, yalnızca askeri uygulamalarından ziyade, algoritmik yapıların sağlık, finans ve politik katılımcılık konularına odaklanmıştır.  ‘Yapay zeka o zaman, feodalizmin, esas olarak, sistemik anarşiyi ortadan kaldırmaya yönelik ve siyasi ve beşeri sermaye tedariki için hem ülke içinde hem de uluslararası alanda güvenlik teminatı etrafında dönecek bir siyasi rejimi ima etmesi gerekir. İç politikada, isyan kontrol ve gözetim endüstrilerini ifade ederken, uluslararası alanda siber güvenlik, insansız sistemler ve geniş bir iletişim ile ilgili ön cepheler yer alıyor.

YZ Dijital alanın feodalist eğilimlerini güçlendirecek olan, korporatizmi, yani kodlayıcı sendikalar ve loncalar arasındaki sektörel ittifaklarla güç ilişkilerinin yeniden yapılandırılmasını taklit eden bir üretim sistemi yaratmaktır. Bu, algoritma inşasının kontrolünü ve hem devletin hem de özel aktörlerin güvendiği yapıların sürdürülmesini ve gelecekteki ekonomik sistemin temelini gerektirecektir. A.I. siyasal, askeri ve bilim meselelerini orantısız şekilde etkileyecek kod ve kodlayıcı üretim biçimlerini tekelleştiren kurumların kombinasyonu yoluyla güç merkezileşmesini güçlendirebilir. Bu, demokrasinin ortadan kaldırılmasına yol açan, siyasi katılımı ve temsili en aza indirecek bir feodal ağ oluşturacaktır. Belirsiz ve erişilemeyen Habermasçı “algoritmik muhafazalar”, toplum üzerinde güçlü kontrol mekanizmaları kuracak ve bunlardan sorumlu olan kodlayıcı oligarşileri ve şirketleri güçlendirecektir.

Popüler ana akımdaki ikinci alarmist eğilim, YZ. aşırı merkezileştirilmiş AI temelli karar vermenin, kontrol odaklı, yukarıdan aşağıya uygulamaların, ifade, bağlılık, gözetim ve siyasi bilgi arayışını kısıtlayacağı bir baskı hiyerarşisi yaratacağı bir “faşist sistem” yaratacaktır. davranışı. Bu korkular son yıllarda ABD ve Avrupa’daki aşırı sağcı grupların yükselişi ile yoğunlaştı, internet trolleri, sahte haberler ve botlarla desteklendi. Foucault’nun  ve Canguilhem’in kavramsallaştırılmasına göre, teknoloji ve bilim, faşist rejimler tarafından sosyal bir güce dönüşüyor, başlangıçtaki faydacı kökenlerini patlatıyor ve kendi hayatlarını ele geçiriyor. Teknologizm, bir toplumdaki hak ve özgürlüklerin sınırlarını belirler ve faşist rejimlerde gerçek bir politik ideoloji haline gelir. “Tekno-faşizm” de, sosyal yaşamın tüm yönleri, sosyal ilerleyişin daha yeni sektörel kontrol biçimlerini uygulamak için kullanılan bilimsel ilerlemeyi ve teknolojik ilerlemeleri maksimize etmek amacıyla kontrol edilir. Hegemonik ideolojiye uymayan veya tamamen uymayan görüşler, hapsetme ve ölüm yoluyla denklemden çıkarılır. Totalitarizm bu bağlamda otoriterizmden farklıdır çünkü ikincisi, insan doğasını veya tüm dünyayı değiştirmek için devrimci bir mekanizma aracılığıyla tüm vatandaşların düşüncelerini ve eylemlerini kontrol etme ihtiyacı olmadan siyasi iktidarın merkezileşmesini ifade eder. Bir YZ. Bu nedenle faşizm ya da totaliterlik, insan ilişkilerini ve sosyal etkileşimleri değiştirmek için bir teklif vermek zorundadır; sadece politik kontrol ve merkezileşme kendi başına yeterli değildir.

Literatürde YZ’nin nasıl olduğunu öne süren bir argüman. totaliterizmin koşullarını yaratabilirse, Herbert Marcuse’ın “tek boyutlu insan” olarak adlandırdığı şey üzerine inşa edilir. Marcuse’ın tanımı, “insanların satın aldıkları metaların bir uzantısı haline geldikleri” bir tüketici topluluğuna atıfta bulunarak, kendi sahip olmalarını teknolojiye sahip olmaları yoluyla şişiriyor. Bu nedenle, Marcuse’a göre, kapitalist tekno-merkezli toplumlar, mikro-totalitarizme yenik düşme eğilimindedirler, çünkü teknoloji alımları, toplumsal düzeni değiştiren bir ego-merkezcilik duygusuyla yönlendirilir. Tekno-merkezli kendini gerçekleştirme için ortaya çıkan teklif, toplumların daha yeni dijital gözetim, ağ izleme ve büyük veri profili oluşturma biçimlerini izlemeyi ve kontrol etmesini sağlayarak, istekli bir doğrudan baskı biçimi oluşturuyor. Toplumların veri toplamada kullanabileceği daha fazla yönünü ortaya koyarak toplumlar, devletlerin veya kurumların, her ikisi de totaliter bir geçişin ön koşulu olan insan ilişkilerini ve etkileşimlerini kontrol etme ve değiştirme tehlikesi altındadır. Ayrıca, YZ zaten sorunlu devlet gözetleme araçlarına boyut ve ölçek çarpanları getiriyor. Otomatik ve yüksek oranda rafine edilmiş sansür biçimleri, gerçek zamanlı izleme, profil oluşturma ve iletişim gözetimi, YZ tarafından desteklenen konuşma ve örüntü tanıma araçları, devlet destekli sahte haberler, botlar ve troller gibi bilgi spoilerleri aslında otoriter ve totaliter rejimleri güçlendiriyor. Bu baskı yapılarının inşasında, A.I. hükümetler ve teknoloji şirketleri arasındaki finansal ilişkinin totalitarizmin bir başka biçimini güçlendiren bir kısır döngü yarattığı gözetleme-sanayi kompleksinin kesişme noktasında yatıyor. YZ ve makine öğrenimi mimarileri, insan eylemlerinin ve davranışlarının politik, ekonomik ve sosyal olarak tanımlanabilir ve tanınabilir özelliklerle tahmin edilebileceği ve bunun da nicelleştirilebileceği hipotezi üzerine inşa edilmiştir. Sosyal etkileşimlerin bu şekilde nicelleştirilmesi, tekno-faşizmin kalbinde yer alırken, yurttaşlar neredeyse gözle görülemeyen ve teknik olarak denetlenmesi zor olan algoritmalar yoluyla profillemeye giderek daha fazla maruz kalmaktadır.

 

Ancak, YZ’yi suçlamalı mıyız? veya algoritmalar?

Algoritmalar doğal olarak “totaliter” midir, yoksa bu nötr kod yapılarını ona daha elverişli kılan sistemik etkiler var mıdır? Ana akım endüstrisi tartışmasındaki yaygın eğilim YZ ya da kodlayıcı yanlılıklarını ve yanlış kararları kapsayacak şekilde, özellikle hükümetler veya teknoloji şirketleri tarafından kurban edilen bir kuzu olarak algoritmalar. Algoritmalar bir hata yaptıklarında, genellikle kendi kendilerine hata yapan bağımsız varlıklar olarak ifade edilirler, sanki insan önyargıları ya da ayrışmaları kod yapısına beslenmiyormuş gibi.

Daha ziyade, kodu üreten iş yapısı, aleti aracın kendisinin ele geçirme yetkisini ihraç ederek, dikkati, algoritmayı oluşturan, koruyan ve değiştiren güç ilişkilerinden uzaklaştırır. Bu ihmal ve saptırma, örtülü otoriterciliğin modus operandi’leridir, çünkü ne kod ne de onun arkasındaki iş modeli, etkiledikleri toplum tarafından muhasebeleştirilemez, doğrulanamaz veya değiştirilemez. Örneğin, son birkaç yıl içinde terörizm ve cihat içeriği ile çevrimiçi olarak mücadele etmek için yürürlüğe konan sosyal medya algoritmaları, satın alma davranışlarını, kentsel işe gidip gelme biçimlerini ve okuldaki öğrenci katılımını izlemek için sadece biraz yeniden düzenlenmiştir. Bir öğrencinin katılımını takip etmek için bir okul tarafından bir algoritma kurulduğunda, algoritma bunu önceki görevini taklit edecek şekilde yapar: bir sonucu en üst düzeye çıkarmak için insan davranış kalıplarını düzenlemek ve düzenlemek (bu durumda, devam). Sorun şu ki, bu tür algoritmaların çoğu askeri ya da kolluk kuvvetlerinden geliyor. Sivil bağlamlara uygulandığında bu algoritmalar, çok sayıda yasal ve insan hakları ile ilgili problemleri beraberinde getirecek şekilde sosyal olarak invaziv hale gelmektedir. Çin, Baidu (ana Çin arama motoru) arama sonuçlarına derin öğrenmenin uygulandığı Çin Beyin Projesi’ne getirilen bir örnek, kullanıcı davranışları hakkında bilgi toplamak.

Bu proje, Çinli vatandaşların çevrimiçi, çevrimdışı davranış ve etkileşimlerine göre kredi, iş ve vize durumlarını etkileyen bir sistem olan “vatandaş puanı” ile yakından bağlantılıdır.  Program, dijital insan davranışlarını, suç ve ulusal güvenlik tehditleri hakkında eğitilmiş geçmiş sürümlerine benzer şekilde toplar ve sipariş eder. Snowden vahiyleri, Birleşik Krallık’ın ‘Karma Polis’ adlı benzer bir programı kullandığını ortaya koydu. Kitle kullanıcı IP verilerinin SMS meta verileriyle çapraz referansı olduğu ve sosyal medya tarihinin en kapsamlı ve sorunlu gözetim sistemlerinden birinin temelini attığı Avrupa hukuku uygulamalarında programlar.

 

YZ otoriterizm ikna edici algoritmaların ortaya çıkmasıdır. İkna edici bir algoritma, kullanıcı davranışlarını açık talimatlar veya talimatlar olmadan yönlendirir, bunun yerine kullanıcıyı dolaylı ve gizli koşullandırma yoluyla istenen seçim veya sonuçlara yönlendirir. Cambridge Analytica, bize şimdiye kadar radar veri toplama ve profilleme teknikleriyle büyük ölçekli politik mühendisliğin nasıl gerçekleştirilebileceğini gösterdi. [36] İkna edici algoritmaların insan davranışlarını etkileme biçimi, doğrudan Nobel Ödülü sahibi Richard Thaler ve Cass Sunstein’ın “dürtüler teorisi” tarafından tanımlanan “dürtme” kavramına ilişkindir. Nudging, dolaylı öneri ve ipuçlarının doğrudan tehdit veya ikna olmaksızın kurumların ve bireylerin kararlarını etkilediği sosyolojiden ithal edilen bir davranışsal kavramdır. Sağlam bir dürtme, bağlayıcı görünmediği için bir tehdit veya baskı değildir ve çoğu zaman hedefin, alternatifler arasından hedefin kendi tercihi gibi göründüğü bir şekilde istenen davranış kümesine kılavuzluk eder. Çok sayıda kullanıcı karar ve seçimini toplama yetenekleri sayesinde, algoritmik mimariler ideal olarak otomatik darbeler için tasarlanır, çünkü bir nudge için elverişli seçimler yapmak için kullanıcı verilerini otomatik olarak öğrenebilirler.

Geniş bir kullanıcı davranışı veri kümesine sahip olan A.I.-tabanlı sistemler, bireyleri arzu etmeden istedikleri seçimlere ve davranışlara yönlendirebilecek ve daha da kötüsü, gerekli kararda ajansa sahipmiş gibi görünebilecek geniş çaplı bir dürtüye sahip olacaktır. Bu problemler, tek bir arama motorunun ya da bir sosyal medya kuruluşunun (ya da bunlara sahip bir şirketin) dijital kullanıcı verilerinin toplanması ve işlenmesinde yegane tekel oluşturduğu ülkelerde özellikle daha muhtemeldir. Devletin A.I. ile ilişkisi Tekelci, çoğu zaman anlamsızdır, çünkü algoritmik otoriterizm, simbiyotik bir ilişkinin var olduğu ve olmadığı yerlerde eşit olarak uygulanabilir. İkna edici algoritmaların bu dürtme kabiliyeti, gerek yasal gerekse yargı organları aracılığıyla kod gözetimi ihmal edilirse, otoriterliğin temellerini oluşturabilir. Bununla birlikte, algoritmik incelikleri anlayabilmek için, bu organların her ikisi de bu tür gözetim görevlerine yardımcı olmak için bir teknik uzmanlık temeli geliştirmek zorundadır.

Algoritmik Karar Verme ve Siyasi Meşruiyet

 

Mayıs 2017’de Amerikalı yazar Joshua Davis, Kablolu hakkındaki en çok okunan yazılardan birine imza attı: ‘Haydi Seçelim A.I. Başkan’[38]. Davis’in argümanları, hızlı kararlar, vatandaşların ihtiyaçlarına uygun ve hesap verebilir bir yanıt ve siyasi süreçten kaynaklanan yolsuzluğun nihai olarak ortadan kaldırılması etrafında dönüyordu. Parçaya göre, A.I. Başkan, zamanla, makineler için daha karmaşık ve kritik görevlerin kademeli olarak dış kaynak kullanımıyla sonuçlanacak ve sonuçta tüm siyasi kararların algoritmik yapılar tarafından tam olarak ele geçirilmesiyle sonuçlanacak. Ancak, bu anlatı belki de siyasetin en önemli otorite kaynağını çıkarır: meşruiyet. Algoritmik karar verme sistemleri devreye sokulduktan ve politik kararlar vermeye başladıktan sonra, bu tür bağlayıcı kararlar verme yetkisi nereden kaynaklanmaktadır? Vatandaşlar, eleştirel kararların çoğunu oluşturan algoritmik yapılar üzerinde bir algoritma ya da bir dizi algoritma ya da insan karar alma ekibine oy verecek mi? Bir algoritma, savaşa gitmek veya askeri bütçeyi arttırmak için otomatik bir karar verdiğinde, örneğin olası senaryoları ve karar ağaçlarını tarttıktan sonra, bu kararın meşruluğunu nasıl değerlendireceğiz?

insan elden bir duruma karar süreçleri ve uyku-yürüyüş politik toplu izole sonra (Entfremdung) animasyon ve politik meşruluk gerçekleşecek mekanizması Karl Marx [39] tarafından tarif? YZ Siyasette en temel otorite kaynağını etkileyecek, gerçek karar sürecine bakmalıyız. Geleneksel karar verme teorisi, politik karar sürecini beş ana bileşene ayırır. (Liderler önemli ve acil olan konuların nasıl karar) ayarını Bunlar gündemi politika formülasyonu (gündemini ele almak en verimli, hem de alternatif senaryolar oluşturma), karar verme (alternatif yaklaşımlar ve senaryolar ağırlığında ve primer olarak tek bir seçenek belirleyerek) Uygulama (politikanın uygulanması) ve gözetim (uygulanan politika, eldeki sorunun gerekliliklerini nasıl karşılamaktadır).

 

Gündem belirleme (önemli ve gereksiz konuları belirleme) söz konusu olduğunda, YZ Büyük veri analitiği yoluyla nüfusun duygularını ve duygularını hissetmek olurdu. Bu görev sık sık kelime sıklığı ve duyguları sıralama büyük bir nüfusun genel anlık olarak üretilmiş dağıtıldığı pazarlama, reklamcılık ve siyasi kampanyalar, gördüğünüz akım otomatik metin madenciliği ve taraf çıkarma görevlerden bazıları benzeyecektir. YZ’yi görmek çok kolay Politika yapıcıların vatandaşların temel sorunları, sorun talepleri ve politika görüşleri üzerinde yüksek sadakat ve ayrıntılı gözlemlere olanak tanımak için yakın gelecekte madencilik algoritmalarını iyileştirmek.

Çin, sosyal medya alanını yakından izleyerek ve YZ’ya dayanarak, bunun farklı bir biçimi üzerinde deneyler yapıyor. hükümetin eleştirdiği türden içeriğin suçlu davranışa ya da ‘kabul edilebilir eleştirilere’ karar verdiğini belirleyen kararlar, ünlü Kral (ve diğerleri) çalışmasının gösterdiği gibi, Çin hükümeti, önemsiz olan ve olmayanlar arasındaki kritik içerikler arasında ayrım yapmak için algoritmik yapılar kullanmaktadır. Fiziksel harekete geçirme potansiyeline sahip olan. Birleşik Krallık 2015 genel seçimlerinde de, duygu analizi çalışmaları, çoğunluğu kamuya açık alan duygularını izlemek için yedi teknoloji şirketi ve sosyal medya platformları ile sözleşmeler oluşturan tüm taraflar ve adaylar için önemli bir rol üstlenmiştir. Günümüzde, siyasi partiler, hükümetler ve dünya çapındaki liderler, vatandaş ve seçmen duygularını ve bunların yükseltilmesini istedikleri konuları güncel tutmak için bazı metin madenciliği algoritmalarını kullanırlar. Yakın gelecekte İnternet, iletişim ve sosyal medya platformlarında mevcut olan duyarlılık verileri çoğalarak, AI tabanlı tanıma sistemlerinin kritik konuları çok daha hızlı ve daha güvenilir bir şekilde öğrenmesine ve belirlemesine izin vererek gerçek zamanlı ve akıcı gündem belirleme yeteneğini mümkün kılacak. politikacılar için.

 

Karar verme sürecindeki ikinci adımda – politika formülasyonu – YZ Sonuçların ve kaynak dağılımlarının çoklu tandem süreçlerini çalıştırarak ve bu sonuçlara karşı olası kamuoyu tepkilerini tahmin ederek senaryoları optimize etmede yardımcı olabilir. YZ’nin en önemli yardımcısı. Gerçekçi politika senaryolarının üretilmesinde maliyet-verimlilik, hızlı işleme yetenekleri alternatif kararların malzeme ve işgücü maliyetlerini daha iyi tahmin edebilecektir. Örneğin, Chicago Halk Sağlığı Dairesi, devletteki kurşun zehirlenmesi olayına yaklaşımlarını optimize etmek için makine-öğrenme araçlarını kullanmıştır .

En yüksek maruziyete sahip evlerin ve işyerlerinin haritalanması yoluyla yönetim, salgınla mücadelede etkinliği en üst düzeye çıkarmak için kaynaklarını etkin bir şekilde tahsis edebilmiştir. Bununla birlikte, algoritmalar nicelleştirilemeyen politika değişkenlerini modelleyemez veya tahmin edemez. Bu türden kabul edilemez değişkenler, davranışsal, bilişsel ve psikolojik verilerin yanı sıra, rantçılık, yolsuzluk ve cronyizm gibi siyasetin ego ve rant odaklı yönleri olacaktır. En liberal demokrasiler bu etkilere karşı bir şekilde bağışıklık kazanacak olsa da, dünyanın birçok ülkesinde (gelişmiş ülkeler kadar), kararlarında kişisel siyasetin önemi nedeniyle, algoritmik politika formülasyon yaklaşımlarını yan yana koymaya daha çok tercih edilir. Bu amaçla, “algoritmik bir politika formülasyonu” beklentisi, daha otoriter sistemlerde kabul edilemez politik değişkenlerin bolluğu nedeniyle en yüksek kalitede demokrasiler için daha gerçekçi görünmektedir. Bir diğer hayati görev YZ Politika-formülasyon aşamasında ele alınabilecek standart operasyon prosedürleri bir veritabanı oluşturmak ve kriz zamanlarında en uygun olanı istihdam yardımcı olacaktır. Özellikle doğal afetler, isyanlar veya terörizm gibi yüksek risk ve tehlikeleri içeren senaryolarda, algoritmik yapılar kaynakları harekete geçirmede, büyük insan gruplarını yönlendirmede ve eldeki acil durumla ilgili kritik bilgileri yaymada iyi çalışabilir.

Üçüncü, fiili karar alma aşaması, karar sürecinin en önemli adımı olan YZ demokrasiyi zayıflatacak veya güçlendirecektir. Bunun nedeni, fiili politik kararın bağlayıcı bir güce sahip olması ve yasaya sokulması için bir yetki ve meşruiyet biçimini gerektirmesidir. Demokrasilerde bu meşruiyet, temsil ve oylamadan kaynaklanır ve karar almak için gereken siyasi sermaye, kamu desteği ile elde edilir. Öte yandan, otoriter ortamlarda meşruiyet, bir yakın-devreli oligarşinin safları arasında bir fikir birliğinden kaynaklanırken, siyasal sermaye (her zaman demokrasiden de az olsa da) baskı ve düzen yoluyla elde edilir. Algoritmalar, karar ile bu seçeneklerin diğerlerine göre üstün olduğu süreç arasındaki ayrımı bulanıklaştırır. Karar verme süreci otomatikleştirildiğinde, politika hazırlama süreci ve kararın kendisi de siyasi meşruiyet ve egemenlikten önemli ölçüde kopar ve böylece hem demokrasilerde hem de otokrasilerde siyasi kurumları zayıflatır. Gerçek karar alma süreci ezici bir şekilde otomatikleştirilirse, yasal ve yasal denetim mekanizmalarının tesis edilmesine gerek kalmadan, hem ilgili hükümetler hem de toplumlar, ortaya konan algoritmaların ürettiği kararlardan uzaklaşacaktır.

Bu, hesap verebilirlik, kontroller ve dengeler ile demokratik temsil üzerinde uzun vadeli yapısal sorunlara yol açacak, bunların hepsi de otomasyondan kaynaklanan geri dönüşüm lehine kamu baskıları yaratacaktır. Şu anda, ne otokrasilerin ne de demokrasilerin YZ’ye izin vermesi olası değildir. karar verme sürecine tecavüz, ancak otomatik kararların büyüklüğü ve ölçeği çoğaldıkça, ülkeler hız trendlerine ayak uydurmak için algoritmik politika oluşturmaya başvurmak zorunda kalacaklar. Bu nedenle, YZ dışarıdan, gerçekten karar vermede ona bağlı olarak değil makul görünüyor. En olası sonuç kültür ve ülkeye bağlı olacaktır, çünkü farklı siyasal sistemler zaman içinde algoritmik-karşı-insan odaklı kararlar arasındaki dengeyi bulacaktır.

Nihai olarak, uygulama aşamasında, YZ-temelli yaklaşımlar, uygulama stratejilerinin modellenmesinde, kaynak tahsisi ve tedarik zinciri yapılarının tasarlanmasında önemli bir potansiyele sahiptir. Bir karar alındıktan sonra, algoritmalar ilgili kurumlar ve yer varlıklarıyla iletişim kurabilir, depolardaki stoğu kontrol edebilir, finans transfer edebilir ve insanlarla karşılaştırıldığında coğrafi olarak çok daha uzak alanlarda çok daha hızlı ve çalışan bir tedarik zinciri kurabilir. Son zamanlarda, ABD Ordusu bir YZ “Strateji Stratejisi”, ünitenin, tugayın ve şirket düzeyindeki ihtiyaçların gerçek zamanlı olarak izlenmesini, silah ve mühimmat ile diğer malzeme ihtiyaçlarının taban ve cephe çizgisine daha hızlı teslim edilmesi için hızlı tedarik zincirleri kurmayı amaçlamaktadır. Ayrıca YZ Politika iletişim evresine önemli bir katkı yapabilir, burada uygulama sürecini farklı dinleyicilere hasat edilmiş sözcük ve ifadelere dayalı olarak sunabilir ve iletişim kurabilir, onlarla rezonansa giren bir ton ve sözdizimden yararlanabilir. Cinsiyet, yaş, ırk ve sosyoekonomik altyapıya dayanan özel politik reklamlar, iş ve yönetimde iyi bir etki yaratmaktadır . Bununla birlikte, otomatik politika iletişimi henüz mükemmel değildir; ancak, botla çalışan halkla ilişkiler girişimleri (chatbots) henüz emekleme evresinde çok fazladır ve genellikle ya sağır ya da acil kod yapısının ötesinde soruları ve komutları anlayamazlar.

on olarak, politika değerlendirme aşamasında, YZ, yeni politikanın etkilerini önceden belirlenmiş başarı işaretçileri aracılığıyla izleyebilir ve ölçebilir ve söz konusu politikanın kısa-orta vadeli sonuçları hakkında karar vericilere düzenli geri bildirim sağlayabilir. Daha ileride, politika uygulama aşaması, politika etkinliğini ve kamu tepkisini gerçek zamanlı olarak test eden sinir ağlarının ortaya çıkmasından önemli ölçüde etkilenecek ve karar vericilere politikaları iyileştirmek ve değiştirmek için anında geri bildirim sağlamak.

 

Siyasi karar alma sürecinin yukarıdaki çöküşü çok önemlidir çünkü sistemi nihai olarak YZ’ya karşı savunmasız kılan bu yapıdır. Bu aşırı bağımlılık, zaman içinde, devletin iki temel kaynağını – meşruiyet ve egemenlik – karar verme sürecini aşırı merkezileştirerek ve aşırı karmaşıklaştırmak suretiyle bozabilir. Özellikle uygun gözetim ve hesap verebilirlik mekanizmalarının yanı sıra teknik olarak yeterli ve bağlayıcı kurumlar yerine getirilmediğinde, ortaya çıkan süreç kaçınılmaz olarak bir tür totaliter rejime yol açacaktır.

YZ’nın doğal olarak karmaşık ve teknik olarak karmaşık yapısı kod yapısı, eğer bu kurumlar ve denetim mekanizmaları bilgisayar bilimlerindeki hızlı ilerlemenin gerisinde kalıyorsa, uygun hesap verebilirliğe karşı bağışıklık kurabilir. Teknoloji şirketleri ve kod yazarları her zaman liderler ve toplum arasında kod arka kapıları aracılığıyla bir kama çekebilir ya da kodu göz ardı etmek için kasten aşırı karmaşık hale getirebilirler. Siyasi ve hukuki kurumlar denetleme yetkisini teknik olarak yetkin teknoloji şirketlerine veya kodlayıcı sendikalara bıraktıktan sonra, bu şirketler veya sendikalar tarafından algoritmik gözetim tekelleştirilecek ve bu da politik otorite ve iktidarda köklü bir değişime yol açacaktır.

Otomatik karar alma yapıları, seçmenler ve hükümet arasındaki geleneksel bağı da test edecek. Politika kararlarının önemli çoğunluğunun algoritmik yapılar aracılığıyla otomatikleştirildiği varsayımsal bir siyasal sistemde, seçmenler tam olarak ne için oy kullanıyor? Seçmenler bir hükümete ya da bir algoritmaya oy veriyor mu? Eğer birincisi, algoritmaları değiştirecek, daha fazla gözetimi uygulayacak ya da tercihli olarak – belirli konularda değil, başkalarında – kullanacak bir hükümete oy veriyorlar mı? Seçmen seçimi, algorith nasıl algoritmik yönetişim veya rakip tarafların algoritmik sistemleri kullanacağı dereceleri ile sınırlı olacak mı? İki senaryo daha düşünelim: YZ Nihayetinde, “süper-zenginlik  ortaya çıkmasının, insan nüfusunun büyük çoğunluğu tarafından büyük ölçüde ‘nesnel’ olarak görülen kararlar alacağı tekillik seviyesine ulaşacak, bu durum, bunun çok işlevinin kademeli olarak ortadan kaldırılmasına neden olacaktır. Seçmenler bir süper-yetkinlik tarafından yönetilen bir sisteme oy verdiklerinde, süper-yetkinliğe danışılacak derecelere oy veriyorlar mı, yoksa algoritmaların müdahalesini istedikleri politika alanları (sağlık, savunma, ekonomi) lehine oy kullanıyorlar mı?

Alternatif olarak, tüm görev ve politikaların algoritmalara aktarıldığı ve oylamanın tamamen kaldırıldığı totaliter bir sistem düşünelim mi? Bununla birlikte, eğer süper-sübvansiyonun asla gerçekleşemeyeceği ikinci senaryo ile gidersek, ve YZ Yapılar her zaman doğal olarak kusurlu olacak ve daha iyi politik kararlar veremedikleri için, insanlar o zaman, bir oylama işlevi midir? Kod yapılarının hata yapma potansiyeli olan “kusurlu istihbarat” sisteminde, seçmenler tam olarak ne için oy verecek? Kod yapılarının siyasi süreçler üzerinde muazzam bir etkiye sahip olacağı gerçeğini nasıl bağdaştıracağız, ama yine de vatandaşlar tarafından teyit edilemez veya düzenlenemez, ancak yine de bir seçim sisteminin parçası olacak mı?

Ne kadar olursa olsun YZ ölçülebilir görevlerde gelişebilir, YZ Politika varsayılmalıdır: Algoritmik yapılar asla insanın karmaşıklığı ile ilgilenen politika alanlarında tek boynuzlu ‘mükemmel karar“ veremez. Birincisi, politikada ‘mükemmel’ ya da ‘nesnel bir karar’ kavramının ‘ ve’ ikincisi ‘kavramının olmaması nedeniyle, çünkü sistemik veri karmaşıklığı, makinelerin onları öğrenme yeteneğinden daha hızlı artmaktadır. Bir algoritma, bir arama motoru verisi üzerine eğitildikten sonra, kısa vadeli arama senaryolarını makul bir şekilde tahmin edebilir, ancak insan belirsizliğini tahmin edemez veya insan arama tercihlerinin bundan on yıl sonra nasıl şekilleneceği konusunda uzun vadeli tahminlerde bulunamaz. Aslında, YZ Karar alma yapıları çoğu soruna ‘tek beden uyan’ bir çözüm bulmaya çalışırlar ve ikincisi sosyal olmayan bilim adamları tarafından ezici bir şekilde inşa edilirler, genellikle yerel ve kültürel faktörleri göz önünde bulundurmadan ve yalnızca ölçülebilir olarak değerlendirmeden optimal bir sonuca ulaşırlar. ya da keyfi olarak ölçülen verilerdir. Aynı karar verme sürecinin uzatılmış yinelemelerinden sonra bile, herhangi bir makine öğrenme döngüsü nicelleştirmeyi öğrenir ve tüm YZ siyasette zor “optimal karar” ın olanaksız kıldığı işlevler.

Ancak, siyaset bu tür otomatik kusurlarla nasıl baş etmeli? Geniş fayda yelpazesi göz önüne alındığında YZ Siyasi sürece girerken, rejimlerin algoritmayı bir karar bileşeni olarak atması olası değildir. Öyleyse, algoritmik politikadaki en iyi uygulama hangisidir ve karar verme döngüsüne nasıl uygun bir şekilde entegre edilebilir? YZ’ya demokratik yaklaşım karar verme, “bilgi piyasasının” çeşitliliğini, algoritmik yapıların alana hakim olmasına izin vermeden, dengeli bir insan-makine etkileşimi ile korunmak olacaktır. Kişisel politikaya daha az etkili ve daha yatkın görünmesine rağmen, bu çeşitlilik YZ uzun vadede aşırı merkezileşme ve yanlış YZ kararlar. Bu raporda bahsedilen gözetim sorunlarından bazılarına bakıldığında, hesap verebilirlik açığı, YZkarar verme grubundaki tüm kararları insanlarla anlaşılabilir kılarak gerçek potansiyelinden. Buna ek olarak, kamuda sayıca sivil toplum ve ülke liderliğindeki çabaların geniş bir denetim ağı oluşturmasıyla birlikte, kod şeffaflığı üzerinde durulmalıdır. Bu, vatandaşların liderliğindeki gazeteciliği, açık erişim kod kültürünü, kitle kaynak kullanımını ve fikirleri çeşitlendirmek için ücretsiz kamusal tartışmayı, tek bir süperintelligent ‘benign hegemon’ yaratmaya çalışmaktan ziyade içermelidir. seçmen katılımını teorik olarak artırmanın yanı sıra seçimleri daha güvenli bir hale getirerek, oylama sürecini daha güvenli hale getirmek, algoritmaların karar vermeden sorumlu hale getirilmesinden sonra algoritmik hesap verebilirlik sorunlarının daha fazla düzeltilmesine neden olmaz. Her ne kadar totaliter rejimlerin uzun tarihinin kanıtladığı gibi aşırı güç merkezileştirme, daha fazla çatışmaya girmeyi ve kendi halkı ile birlikte sürekli bir militarize anlaşmazlık döngüsüne kilitler. Bu amaçla, YZ-merkezli iktidar merkezileşmesi, barışı sağlayacak küresel bir “süper-zeka” yaratmaktan ziyade tekrarlayan çatışmalar üretecektir.

YZnın etkisini değerlendirirken ‘Politiklik’ diğer önemli bir önlemdir. ‘Politiklık’, bir kararın sonucunu belirlerken politik sermayenin ve politik etkinin rolünü ifade eder. Politikada, her zaman uygulanan en rasyonel seçim değildir, en yüksek derecedeki politikitaya sahip olan – yani politik sermaye ve nüfuz anlamına gelir. Etki, genellikle, başarılı ya da politik sermaye üreten kararların bir sonucu olarak, büyük siyasi aktörler ve kurumlar arasındaki güç ilişkileri tarafından belirlenir. Daha spesifik olarak, bir kararın politikliği dört güç sistemi arasında belirlenir: meşru (seçilmiş), uzman (teknokratik), ideolojik ve ilgi temelli. Etkinin bu temel yönleri arasındaki güç dengesi, bir politik sistemin istikrarını ve kurumsallaşmasını belirler. Seçkin, teknokratik, ideolojik ve ilgi alanına dayalı politik aktörlerin beklentilerini karşılayan en yüksek derecedeki politikite kararı. Siyasi kararların çoğu – belki de anayasaların temel maddeleri hariç – dört siyasi sermaye kaynağından destek almaz. Bu kaynaklar arasındaki sürekli, günlük itme ve çekme, pazarlık ve rekabet, siyasetin ve siyasal hayatın pratiğini oluşturur. YZ Etkileşim aktörleri arasındaki bu güç dengesini önemli ölçüde değiştirecektir, çünkü algoritmik kararlar kendi politik güçlerini denkleme getirmektedir.

Kararlar aşamalı olarak algoritmalara dış kaynak olarak verilir, YZ ya diğer aktörleri yutacak olan kendi etki alanını yaratacak ya da bu dört kaynaktan birini güçlendirecek. Bu kaçınılmaz olarak, kod yapılarının yönetilmesinin teknik önkoşullarına en yakın olanı ve teknokratik etki kaynağı olan en muhtemel olanıdır: uzman (teknokratik) etki. Bu, bu kararların ideolojik ve ilgi alanına dayalı otorite kaynaklarından ayrılması gerektiğinden, algoritmik kararların yeterli politikiteye sahip olmasını önleyecektir. Dahası, algoritmik kararların görünür, kamusal yüzü yoktur. Görünürlük, meşruiyetin en güçlü ön şartlarından biridir. Liderler ve politikacılar kamuya ve medya kuruluşlarına görünür olmalı. Politika, insanlar arasındaki güç ilişkilerinin yönetimi olduğundan, öncelikle aktörlerin davranışları, karizmaları ve seçmenlerinin gözünde mevcudiyet üzerine yapılandırılmıştır. YZ Siyasi kararın baskın şekli olarak ortaya çıkar, kamuoyunun yüzünü ve bir çeşit görünürlüğü varsaymak zorundadır. Siyasi meşruiyet ve siyasi sınır için hangi aktörün / aktörlerin de önemli ölçüde önemli olacağı, bu görünürlüğe nasıl ulaşılacak?

Haziran 2018’de yaygın olarak paylaşılan bir BBC raporu şunları sordu: “Nasıl çalıştığını bilmiyorsak, YZ’ya güvenebilir miyiz?” . Rapor, yapay zeka ve sinir ağlarındaki mevcut ilerlemelerden bazılarını özetleyerek, makinelerin artık çok çeşitli karmaşık görevleri nasıl yerine getirdiğini vurguladı. Sorun, makinelerin karmaşık görevleri ele alma kabiliyeti, bu görevleri doğru bir şekilde yerine getirdikleri anlamına gelmez. Bu performans problemleri, sinir ağları veya derin öğrenme gibi çok karmaşık makine öğrenme yöntemlerinin, bu kadar büyük iç parametreler üzerinde çalıştıkları gerçeğinin, kodlayıcıları tarafından bile, tersine mühendislik ya da açıklamayı tersine çevirmekte zorlandıklarından kaynaklanmaktadır. YZ Yöntemler, DARPA’nın ‘Açıklanabilir YZ’ projesinin ya da YZ’ı faaliyete geçirmeyi amaçlayan hükümet dışı bir araştırma grubu olan OpenAI’nin oluşturulmasını gerekli kılmıştır. ilerlemek daha güvenli ve daha sorumludur. Adrian Weller, YZ Londra Alan Turing Enstitüsündeki Program Direktörü aynı raporda alıntılandı: “Eğer bir algoritma altı yıl hapis cezasına çarptırılırsa, uygun bir süreç izleyip izlemediğimi bilmemize olanak tanıyacak bir açıklama isterdim ve anlamlı bir şekilde izin verdim.Sadece YZ ile mevcut ilerlemenin değil kararlarını siyasi ve hukuki gözetim mekanizmalarının çoğu için oldukça opak ve karmaşık hale getirir, fakat derin takviye öğrenme gibi daha deneysel yöntemlerle ilgili olarak, algoritmadan sorumlu şirketler ve araştırma grupları bile, makinenin nasıl etkileşimde bulunduğunu anlayamaz ve açıklayamaz. çevresi ve içinden geçen süreçler.

 

Yukarıdaki tartışma, YZ’nın başlıca zorluklarını özetlemektedir. Siyasi karar almada devletin meşruiyet ve egemenlik hatlarını bulanıklaştırabilir. Tüm algoritmaların, kodlayıcılarının önyargılarını yansıttığını ve bu programcılar arasındaki yaygın görüşe rağmen, politik açıdan tarafsız olmadıklarını ve kesinlikle ‘objektif’ olmadıklarını anlamak son derece önemlidir. Çoğu zaman, algoritmalar varolan insan yanlılıklarını sistematize eder ve onları otomatik kod yapılarının ezici katmanlarına sarmakta, bu tür önyargıları doğuştan kabul edilemez hale getirmekte, hatta bazen kodlayıcılar bile üretebilmektedir. Ayrıca, tüm nicel araştırma yöntemleri, A.I. ve makine öğrenimi gibi, düşük veri kalitesinden kaynaklanan kötü kararlardan kolayca etkilenebilir. Düşük veri kalitesi, makine öğrenimi yöntemlerinde yaygın bir sorundur ve bu algoritmaların, doğrulanmamış veya hata içeren veri kümeleri aracılığıyla öğrenmesine neden olur. Kötü kalite, sırayla, sistematikleştirilmiş eşitsizliği pekiştiren ölçüm hataları veya sahte sonuçlar üretebilir. Siyasi karar algoritmalarında, önceden var olan ırksal, etnik, dini veya sosyo-ekonomik eşitsizliklerin kontrol edilmediğinde gömülü önyargıları, devletçilik, vergilendirme, altyapı geliştirme ve afet yardımının bazı temel görevlerinin yerine getirilmesinin adaletini önemli ölçüde bozacaktır. İletişim bilimcisi Safiya Noble, bu yapısal önyargıları “teknolojik redlin” olarak kavramsallaştırıyor; banka, yatırım ve sigorta gibi kaynak teknolojilerinde kimlikle ilgili farklılıkların nasıl ayrımcılık yapılabileceği. Gömülü teknolojik redlinlemenin bir örneği, Google’ın arama algoritmalarının, farklı etnik kimlikleri arama kutusuna yazıldığında, otomatik tamamlama sonuçlarında farklı ırk yanlılıkları vermesidir. Google arama verileri, çoğu YZ’nın temel eğitim havuzlarından biri olduğu için. karar verme projeleri, Google verilerine yerleştirilmiş önyargılar, politikadaki algoritmik karar vermenin yakın geleceğini etkileyecektir.

 

23 Haziran’da, bir gençlik futbol kulübünün 12 üyesi, antrenörleriyle birlikte, Tayland’ın Chiang Rai kırsalında derin bir mağarada tuzağa düştü. Gözaltına alınan mürettebat, tesadüfen bulunmuş, ancak mağara yapısının özenli, tehlikeli ve labirentine dönüşleri ve dönüşleri kolay bir kurtarmayı engellemiştir. Tayland askeri, polis ve acil müdahale ekipleri yavaş yavaş mağara girişine koştu ve orada büyük bir operasyon tabanı kurdular. 28 Haziran’a kadar, ilk uluslararası kurtarma ekipleri ve uzman mağara dalgıçları Tham Luang dağına varmaya başladı, sadece eldeki işin zorluğunu keşfettiler. Mağaranın yapısı, tüplü takımların girişini yasaklayan küçük geçitlerden oluşuyordu ve yoğun yağış, mağaradaki su seviyesinin belirli zamanlarda yükseldiğini, geçiş yollarında ve izole odalarda su basması anlamına geliyordu. Kurtarma operasyonunun zorluğu uluslararası dikkatleri çekti ve Elon Musk, teknoloji odaklı bir önerinin ilk savunucularından biriydi ve derme çatma bir silindir denizaltısı inşa ederek yardım teklifinde bulundu. Denizaltının hızlı inşasını ve test sürecini Twitter ve Instagram ile paylaşan Musk, kurtarma operasyonuna müdahalesi için uluslararası destek sağlamak amacıyla takipçilerini katladı . Sorun, Musk’un kurtarma operasyonunun komutanı olan askeri denizaltı testlerini tamamladığında, vali Narongsak Osottanakorn tüm çocukların büyük bir grup gönüllü, dalış uzmanı ve donanma mühür birimi tarafından kurtarılacağını açıkladı. Ayrıca, Osottanakorn Musk’ın denizaltısının eldeki işe uygun olmadığını iddia etti ve tüplü dalgıçlar bile mağaradaki belirli geçitlere uymuyordu; ne kadar küçük olursa olsun, bir denizaltına izin verin. Operasyonun en kritik gönüllülerinden biri olan İngiliz mağara dalgıcısı Vernon Unsworth, aynı zamanda Musk’ın “PR dublörlüğü” fikrini de çağırdı; çünkü denizaltısı “ilk 50 metreyi yapmamıştı” .

Kurtarma operasyonu ve komutanı ve mağara dalgıcı tarafından reddedilmenin birleşiminin bir araya gelmesi Mücadeleye karşı bir eleştiri barajını başlatırken, öfkeye karşı bir eleştiri barajını başlatırken, Osottanakorn’un ‘konu uzmanı değil’ ve Unsworth ‘bir pedofiliğin çağrılması dahil. ‘. Musk, denizaltılarının çocukları Kaliforniya’da bir dalış havuzundaki mağara benzeri kontrüksiyonda çok özenle gösterdiği için çocukları kurtaracağı konusunda ısrar etti. Birkaç eşzamanlı Twitter kelimesi ve suçlama savaşının ardından Musk, birkaç gün içinde tüm enflamatuar tweet’lerini sildim. Thai mağara kurtarma bölümü, teknoloji odaklı iyimserlik için önemli dersler, “teknoloji onları koruyabilir” veya mühendislik çevreleri arasındaki yaygın görüşün, insanlığın tüm sorunlarını çözebildiği inovasyona yol açıyor. Tekno-iyimserlikteki en büyük tuzak, tüm uzmanlık biçimlerinin başka alanlara çevrilebileceğine dair yanlış bir düşüncedir; Kalifiye bir mühendisin kendi becerilerini mühendislik dışı alanlara mükemmel bir şekilde aktarabilir. Bu, çoğu bilgisayar bilimcisinin algoritmalarını sosyal amaçlar için tasarlarken karşılaştığı tuzaktır: insan davranışı ölçülebilir olabilir, insan eylemlerinin ayrıntıları, proxy verileri ve insan gelenekleri, protokoller ve asırlar boyunca şekillenen insan usulleri, prosedürler yoluyla ölçülebilir. ya da teknolojik ilerlemenin gücü ile alakasız.

Bu YZ iyilik için bir güç olamaz, ya da siyaseti daha verimli ya da vatandaşların ihtiyaçlarına daha duyarlı hale getiremez. İyi kullanılmışsa YZ Bilgi sistemlerini ve iletişim platformlarını merkezden uzaklaştırarak demokratik temsil alanını genişletebilir. Vatandaşlar için bilgi özerkliğini destekleyebilir ve politik süreçler hakkında bilgi toplamanın yollarını geliştirebilir ve bu süreçlere uzaktan katılmalarına yardımcı olabilir. Aynen YZ Netliği ve hesap verilebilirliği güçlendirmek için kullanılabilir, şeffaflığı artırabilir ve devlet ile toplum ve vatandaşların kendileri arasında daha fazla güven tesis edebilir. İletişim platformlarında bu kirliliği azaltabildiği kadar bilgi kirliliği yaratabilir; Tıpkı rakip siyasi ideolojiler arasında yeni bağlantılar kurabildiği gibi yankı odalarını güçlendirebilir. Yz’dan bahsetmişken İnsanlara “bir şey yapabilecek” bir özerk güç olarak, bu nedenle siyasal rejimler üzerinde algoritmik yapıların geleceğini değerlendirmek için kusurlu bir mercek. YZ Sistemler kodlayıcı önyargısını yansıtmaya devam edecek, asla adalet, ölçü ve hesaplamalar anlamında nesnel ve tekdüze bir “mükemmel süper-güvenilirlik” durumuna erişmeyecektir. Böylece, YZ Siyaset, iktidar ilişkilerinin algoritmik platformlara nasıl kodlanacağının ve güç, meşruiyet ve otoritenin farklı kod gösterimlerinin nasıl farklı Yz’ların siyaseti bir sona doğru bir araç olarak göreceğini nasıl etkileyeceğinin doğrudan bir sonucu olacaktır.

Tekno-sosyolog Zeynep Tufekci’nin sözleriyle: ‘[makine öğrenimi] en kötü kombinasyon: kullanıma direnmenin

zor olması için yeterince yüksek geçerlilik; yüksek yanlış ve pozitif negatifler ve hangisinin olduğunu söylemesi zor bir şeydir . Yanlış pozitif ve yanlış negatifler, belirli istatistiksel koşulların varlığını ve yokluğunu ararken, test sonuçlarında ikili sınıflandırma hatalarıdır . Yanlış pozitif hata, yokken özel bir koşulun varlığını bildiren “yanlış alarm” olarak adlandırılabilir. Benzer şekilde, yanlış negatif bir hata, araştırılan durumun gerçekte hamile kaldığı süre boyunca hamileliği tespit etmedeki bir hamilelik testi gibi, araştırılmış durumun mevcut olmadığını gösteren bir ölçüm hatasıdır. Tüm makine öğrenimi algoritmaları, makinenin farklı veri dizileri hakkında bir dizi varsayım yapmayı öğreneceği bir sınıflandırıcı yapı üzerinde çalışır. Tüm yinelemeli öğrenme süreçleri gibi, makine öğrenimi de yanlış negatif veya olumlu raporlardan muzdarip olabilir. Bu raporlar, böyle bir çalışmada yaygın hatalar olsa da, bu tür bir hata marjı politik kararlara transfer edildiğinde, belirli etnik veya sosyal grupların sistematik olarak bastırılmasına, şüphelilerin yanlış bir şekilde uygulanmasına veya vatandaşların gereksiz sistematik profillenmesine yol açabilir.

Sonuç olarak, YZ’nin politik etkisi üzerine sistematik bir araştırma ya da algoritmaların demokrasiyi veya otoriterizmi güçlendirip güçlendirmeyeceği, farklı rejim türlerine karşı kararların nasıl verildiği, düzenlendiği ve denetlendiğini dikkate almalıdır. Daha kritik olarak, YZ Siyasi kurumlar, aktörler ve yürütme organları arasındaki güç dengesini değiştirmede daha yapılandırılmış bir araştırmaya ihtiyaç vardır. Politik kararların algoritmalara dış kaynak kullanımıyla ilgili meşruiyet ve egemenlik sorunlarının boyutu göz önüne alındığında, Anayasaların, parlamentoların ve siyasi seçkinlerin YZ Politik kararların ve politik otoritenin otomatik kararlar çağında nasıl yer alması gerektiğine odaklanarak derinlemesine çalışılmalıdır. Ayrıca, ‘ne YZ siyasetle yapacağız ‘sorusu, bu sorunun bilgi, ağ kontrolü ve veri işlemenin tekelleşmesinden kaynaklanan çeşitli sorular üzerine yapılandırıldığı gerçeğinden yola çıkılarak eksik bir sorudur. Google, Baidu, Alibaba, Amazon, Youtube, Tencent, Facebook ve diğerlerinin teknoloji tekelleri, Silikon Vadisi tarzı PR brinkmanship kültürüyle birleştiğinde, demokratik veya otoriter devletlerin ne olabileceğine kıyasla algoritmik politikalarda daha tehlikeli ve göz korkutucu gelişmelere yol açacaktır. AI ile olmayabilir Sonuçta, algoritmaların YZ’dan ziyade politikaları nasıl etkileyeceği konusunda en önemli etkiye sahip olacak olan önceden var olan insan gücü ve kira üreten yapılar olacaktır. Siyasi rejim türlerinden ziyade, bağımsız bir varlık ve farklı büyük teknoloji iş modelleri, algoritmaların siyasete nasıl yerleştirileceği üzerinde en büyük etkiye sahip olacaktır.

 

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir