info@alia.com.tr
  • Anasayfa
  • Sayılar
  • Yazarlar
  • Ekip
  • İletişim
  • English

Etik, Mantık ve Hukuk Arasında Yapay Zeka: Ulusal demokrasilerimizi etkileyen bir meydan okuma

  1. Anasayfa
  2. Sayılar
  3. Sahipliğin Estetiği
  4. Etik, Mantık ve Hukuk Arasında Yapay Zeka: Ulusal demokrasilerimizi etkileyen bir meydan okuma

Etik, Mantık ve Hukuk Arasında Yapay Zeka: Ulusal demokrasilerimizi etkileyen bir meydan okuma

***Bu yazı, Erasmus Edufair projesi kapsamında 5-7 Mayıs 2025 tarihlerinde düzenlenen atölye çalışması için, Salento Üniversitesi Yenilik Mühendisliği Bölümü’ne sunulan bir düşünsel çalışmanın özetidir.

 Özet: Bu kısa makale, veri çağının etkilerini ele almaktadır, çünkü yapay zeka sistemleri ve modelleri, uzun zamandır web ve sosyal medyada deneyimlediklerimizin yalnızca bir sonucudur ve yaşananlar, demokratik örgütlenme modelimizi ve bu modelin dayandığı garantileri ciddi şekilde sorgulatabilir.

 Bugünkü durum nedir?

Günümüzde, yapay zeka sistemlerini dünyanın tüm sorunlarını çözecek bir mucize olarak görme veya tam tersine dünyanın sonuna yol açacak distopik senaryolar hayal etme eğiliminde olan yaygın bir anlatı var. Çoğu zaman makalelerin başlıkları bile deneyimlediklerimize dair distopik ve gerçek dışı vizyonlar öneriyor. Hatta bir robotun intiharını varsayar hale geldik, aşırı ve yanlış kullanım nedeniyle hasar verdiğimiz bir arabanın intiharını asla düşünmezdik [1]. Aslında, uzun zamandır sinematografiye (ve sadece sinematografiye değil) bizden daha zeki, bizi değiştirebilecek ve dünyayı kontrol altına alabilecek makineler olasılığıyla büyülendik [2].

Gerçekte, gerçek bir yapay vicdanın gelişiminden henüz çok uzağız, ancak bazı filmlerin telkinleri, Asimov'un Üç Robotik Yasası'nın içeriğini hatırlayarak bile, bazı kabusların gerçekleşmesi durumunda neler olabileceğini anlamamıza yardımcı oluyor [3]:

1.      Bir robot bir insana zarar veremez veya eylemsiz kalarak bir insanın zarar görmesine izin veremez.

2.      Bir robot, Birinci Kanunla çelişmediği sürece, insanların kendisine verdiği emirlere uymak zorundadır.

3.      Robot, Birinci veya İkinci Kanunla çelişmediği [4]sürece kendi varlığını korumak zorundadır .

Ancak, şu anda otonom ve duyarlı bilince sahip yapay bir zekanın olmadığı açık olmalıdır. Otonom ve yapay bir öznellik yoktur. Bugün sahte haber olarak dolaşan yanlış mitleri açığa çıkarmalıyız.

Günümüzde robotik bile hala çok geride ve günümüz robotları hala garip hareketler yapıyor ve olağanüstü teknolojiyle donatılmış vücudumuz kadar akıcı değiller [5].

Chatgpt , Copilot veya DeepSeek gibi Büyük Dil Modelleri üzerinde çok çalışıyoruz . Bunlar esasen metnin herhangi bir anlaşılması olmadan büyük veritabanlarından öğrenmeye dayanan istatistiksel dil modelleridir. Üretilen kelimeler, analiz edilen verilerdeki tekrar eden sözel kalıplar aracılığıyla ekstrapole edilir ve bu kalıpları basit bir şekilde ve istatistiksel ve olasılık kurallarına göre tekrarlar. Bunlara yıllar önce (2021'de) Google'dan iki araştırmacı ve bilim insanı Timnit Gepru ve Margaret Mitchell tarafından "stokastik papağanlar" adı verildi [6]. Bu Büyük Dil Modelleri hem günümüzün hesaplama gücünü hem de inanılmaz bellek yeteneklerini kullanarak bugün sahip olduğumuz devasa veritabanlarını kullanıyor. Ancak aldığımız şeylerde yeni ve yaratıcı hiçbir şey yok.

Biz her zaman ürettiğimiz geçmişten besleniyoruz.

Tüm bu nedenlerden dolayı, yapay zekanın etiğinden bahsetmek pek mantıklı değil. Bugün bizi bu kadar hayrete düşüren yapay zeka sistemleri ve modelleri her zaman bizim ürünümüz ve dolayısıyla emrimizdeki araçlar olarak düşünülmelidir. Etik bize uygulanmalı ve hatalarımızı ve ayrımcı önyargılarımızı ortaya çıkaran ve sonsuza dek tekrarlayan algoritmalara uygulanmamalıdır.

Yapay Zeka Yasası'nda yer alan tanımı okuyarak [7], yapay zeka sistemleri tarafından referans alınan verilerin önemini kolayca anlayabiliriz. Girdi verilerinin kalitesi garanti edilmezse, çıktılarda yer alan sonuç kaçınılmaz olarak zayıf ve önyargılarla (veya bilişsel çarpıtmalarla) dolu olacaktır.

Shoshana Zuboff'un tanımladığı Gözetim Kapitalizminin [8]ortasında yaşıyoruz . Buna göre verilerimiz muazzam bir değere sahip ve Microsoft, Google, Apple, Amazon ve birkaç başkası gibi sektördeki büyük oyuncuların elinde dijital oligopollerin gelişmesine izin verdi. Bu şirketler, zevklerimizin, alışkanlıklarımızın ve hatta en mahrem ilgi alanlarımızın dizginsiz bir şekilde profillenmesine dayanarak dijital pazarı arkamızdan böldüler. Bugün kimliklerimiz çevrimiçi ve sosyal medyada ve dijital yaşamımızda tamamen şeffafız. Dünya, ulusal devletlerin bütçelerinden daha büyük varlıklara sahip çok az sayıda bireyin elinde.

Bugün her şey yönlendirilebilir ve manipüle edilebilir, bu da Amerika Birleşik Devletleri ve Büyük Britanya'da Cambridge Analytica davasında açıkça gösterilmiştir. Amerikan siyasi oyu ve İngiltere referandumu, sahte haberler ve çevrimiçi nefret yoluyla tüm coğrafi alanların sosyal medya manipülasyonuyla şaşırtıcı bir şekilde etkilendi . [9]Bu uygulamaları kınayan ve kırılgan demokrasilerimizi uluslararası düzeyde krize sokan şeye gözlerimizi açan Sosyal İkilem (2020) belgeselini herkesin izlemesinin faydalı olacağını düşünüyorum.[10]

Hem kişisel hem de kişisel olmayan veriler değerli bir kaynaktır: Bir bireyin davranışlarını analiz etmek, tahmin etmek ve etkilemek için bir araçtır. Ve şüphesiz bildiğiniz gibi veriler yeni petroldür.

Sosyal medyada artık zevklerimize, tercihlerimize ve alışkanlıklarımıza göre iyi bilinen topluluklara aitiz ve bu da pekiştiriliyor ve bizim gibi düşünmeyenlerden nefret etmemize yol açıyor. Yapay zeka araçlarının yoğun kullanımı yankı odasını büyütecek.

Avrupa'nın düzenleyici tepkisi

Haziran 2019'da Giovanni Buttarelli [11], ANORC tarafından düzenlenen önemli bir konferansta [12]vasiyetini şu sözlerle bıraktı:

“Mevcut dijital ekosistem, bilgi ve kişisel verilerin yoğun ve ayrım gözetmeden sömürülmesine dayanmaktadır. On yıldan biraz fazla bir sürede, piyasaların yapısı yarı-tekel durumlarına doğru yakınsamış ve birkaç ancak çok güçlü özel oyuncunun piyasa gücünün katlanarak büyümesini emretmiştir. Sonuç, bilgi akışlarını kontrol etme gücünün teknoloji devlerinin elinde yoğunlaşmasıdır; bu durum, insanların profillenmesi ve finansal manipülasyonuna dayalı bir iş modelinin konsolidasyonunu kolaylaştıran bir durumdur. Bu bağlamda, hakim iş modelinin yapısal olarak yeniden düşünülmesi gereklidir.

Ayrıca, farklı düzenleyici alanlardaki ortak sinerjileri ve zorlukları dikkate alan veri koruma, tüketici koruma ve rekabet otoriteleri tarafından koordineli bir müdahaleye ihtiyaç duyulmaktadır .”

Buttarelli gibi insanlar sayesinde Avrupa Birliği yalnızca Yapay Zeka Yasası'na sahip olmakla kalmadı, aynı zamanda Avrupa uzun zamandır dijital inovasyona adanmış bol miktarda mevzuatı teşvik etti; bu, nihai hedefi Büyük Teknolojinin aşırı gücünü sınırlamak ve Avrupa vatandaşlarının temel hak ve özgürlüklerini garanti altına almak olan bir yasadır. Bu teknik standartlara ek olarak, 2023'te Avrupa Komisyonu, Parlamento ve Konsey tarafından ortaklaşa onaylanan, yalnızca vatandaşlar olarak bizler için değil, Avrupa Birliği'ne ait tüm hükümetler ve Avrupa Birliği'nin yasama organları için haklarımızı ve temel özgürlüklerimizi düzenlemek ve korumak üzere bir Dijital Haklar ve İlkeler Beyannamesi bulunmaktadır.

Yapay Zeka Yasası'nın ilk maddesi, bu önemli Avrupa mevzuatının amaçlarını açıklığa kavuşturmaktadır: Bu Yönetmeliğin amacı, iç pazarın işleyişini iyileştirmek ve insan merkezli ve güvenilir yapay zekanın (YZ) kullanımını teşvik etmek, aynı zamanda Birlik'te YZ sistemlerinin zararlı etkilerine karşı demokrasi, hukukun üstünlüğü ve çevre koruma dahil olmak üzere Tüzük'te yer alan sağlık, güvenlik ve temel hakların yüksek düzeyde korunmasını sağlamak ve inovasyonu desteklemektir .

Dijital senaryolara ilişkin en son Avrupa düzenlemelerinin tümü aşağıdaki temel ilkeler etrafında dönmektedir:

- serbest dolaşım, taşınabilirlik ve (kişisel ve kişisel olmayan) verilerin korunması;

- şeffaflık (sadece dijital süreçlere dahil olan savunmasız kişilerin yasal dayanakları, amaçları, rolleri ve hakları hakkındaki bilgiler değil, aynı zamanda algoritmaların şeffaflığı );

- algoritmik kararın münhasır olmaması ve algoritmik ayrımcılık yapılmaması;

- hesap verebilirlik, dolayısıyla rol ve sorumlulukların tanımlanması, örgütsel modeller ve prosedürler;

- verilerin bütünlüğü ve dolayısıyla güvenilirliği ;

- güvenlik ve dolayısıyla risk yönetimi;

- BT sistemlerinin, veri tabanlarının ve dijital arşivlerin birlikte çalışabilirliği;

- Erişilebilirlik ve sürdürülebilirlik.

“En yozlaşmış kamu işlerinin çok sayıda kanunu vardır.” Bunu, en büyük ve en etkili Latin yazarlarından biri olarak kabul edilen Romalı tarihçi, hatip ve senatör Publius Cornelius Tacitus söyledi. Çok fazla yasanın yolsuzluğu desteklediğini savundu. Aslında, tüm bu Avrupa düzenlemeleri gereksiz ve aşırı görünüyor. Büyük teknoloji şirketlerinin suistimallerinden vatandaşlar olarak bizi gerçekten korumak yerine dijital pazarı bürokratikleştiriyorlar. Örneğin, İtalyan Veri Koruma Otoritesi DeepSeek'ten daha fazla şeffaflık istedi [13]. Çinli şirketin cevabı, merkezlerinin Çin'de olması nedeniyle Avrupa düzenlemesinin uygulanabilir olmadığıydı. Ve bugün Avrupa topraklarında faaliyet göstermeye devam ediyor. Ne yazık ki, web'in coğrafi sınırları yok ve bu nedenle uluslararası anlaşmalar ve sözleşmeler gerekiyor.

Avrupa Konseyi Yapay Zeka ve İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Çerçeve Sözleşmesi, bu alandaki ilk uluslararası yasal bağlayıcılığı olan sözleşmedir. 5 Eylül 2024'te imzalanmak üzere yürürlüğe girecek olan sözleşme, yapay zeka sistemlerinin insan hakları, demokrasi ve hukukun üstünlüğü ile tam uyumlu olmasını ve aynı zamanda teknolojik ilerleme ve inovasyona elverişli olmasını sağlamayı amaçlamaktadır. Bu uluslararası sözleşme küresel olarak açıktır ve halihazırda Andorra, Gürcistan, İzlanda, Norveç, Moldova Cumhuriyeti, San Marino, Birleşik Krallık, İsrail, Amerika Birleşik Devletleri ve Avrupa Birliği tarafından imzalanmıştır .

Çözülmemiş sorunlar
Son olarak, yapay zekanın nasıl silahlandırılabileceğini unutamayız. Aslında, istihbarat sistemleri hükümetler tarafından (maalesef demokratik olanlar bile) sivillerin öldürülmesini yetkilendirmek için kullanılır, çünkü bir algoritma bir teröristin muhtemelen bir binada veya ambulansta saklandığını belirlemiştir [14]. Kadınların ve çocukların öldürülmesini hangi olasılık oranı haklı çıkarabilir? Bu nedenle, yapay zekanın özerk bir karar verici olduğuna inanamayız . Bir cinayeti yetkilendiren her algoritmanın arkasında, her zaman öldürmeyi seçmiş insanlar vardır.

Ne yazık ki, Avrupa AI Yasası bu yönü ele almıyor. Bu hassas konu Avrupa ve uluslararası düzeyde ne kadar süre düzenlenmeden kalabilir?

Ayrıca, akıllı dediğimiz bu makinelerin öğrenmesinin ardında, genellikle üçüncü dünya ile sınırlı, "büyük dil modelleri"nin önyargılarını düzeltmek için sabah akşam çalışan birçok düşük ücretli insan olduğunu da unutamayız. Bunlara sözde dijital proletarya denir. İtalya'da yayınlanan "Internazionale" dergisinde okuduğum bir makalede belgelendiği gibi, sabah akşam çalışan ve kendilerini yalnızca hayatta kalmak için adayan tüm aileler var [15].

Son olarak, dijital sağlığa adanmış bir dergide yayınlanan yakın tarihli bir röportajımda belirttiğim gibi [16], gerçek risk, hem eleştirel hem de yaratıcı süreç olan düşünmenin makinelere devredilmesidir. Bunun etkisi, özünde, yeni fikirlerin, stillerin, sezgilerin tekrar döngüsüne girmesini engellemektir. Yapay zeka aslında verilere dayanmaktadır. Ve veriler her zaman ve kaçınılmaz olarak geçmişe yöneliktir. Bir adım ileri giden, paradigmayı değiştiren deha darbesi olan sezgi, insanlığın tipik bir özelliğidir. Bu senaryoda, insanlar anlamadıkları veya kontrol etmedikleri makinelere bağımlı olma riskiyle karşı karşıya kalırken, yapay zeka tahminleri, sürekli olarak önceki tahminler tarafından doğrulandığı için kendini tekrar etmeye devam eden bir veri havuzuna dayandıkları için gerçekleşmeye devam edecektir.

Bugünkü zorluk, bunun yaygın okuryazarlık, uzmanlaşmış eğitim ve disiplinler arası becerilerin geliştirilmesi yoluyla gerçekleşmemesini sağlamaktır. Tek kelimeyle: Kültür.



[1] Güney Kore'de bir robot ilk kez intihar etti. Gerçekten ne oldu? 5 Temmuz 2024'te Firstpost'ta yayınlanan makaleye şu bağlantıdan ulaşabilirsiniz : https://www.firstpost.com/explainers/first-robot-dies-of-suicide-in-south-korea-what-really-happened-13789625.html .

[2]Örneğin, Marvel dünyasının Avengers'ına adanmış destandaki Age of Ultron'u hatırlayalım (2015 yapımı). Ancak Blade Runner (1982), Terminator (1984) veya Matrix (1999) gibi birçok başka filmi hatırlayabiliriz. Ancak zamanda daha da geriye, Hall 9000'e, A Space Odyssey'e (Stanley Kubrick'in) (1968) veya Pink Floyd'un Wish You Were Here (1975) albümündeki Welcome to Machine'e gidebiliriz.

[3]Isaac Asimov (1920-1992) Rus doğumlu Amerikalı bir bilimkurgu, popüler bilimkurgu ve diğer eserlerin yazarıydı. Ayrıca Boston Üniversitesi'nde biyokimya profesörüydü. Robotik Üç Yasası (genellikle Asimov'un Üç Yasası veya Asimov Yasaları olarak kısaltılır) bilimkurgu yazarı tarafından 1942 tarihli "Runaround" adlı öyküsünde (1950 koleksiyonu I, Robot'ta yer alır) tanıtıldı, ancak benzer kısıtlamalar daha önceki öykülerde de örtük olarak mevcuttu.

[4]Robotik alanındaki üç yasa, Avrupa Parlamentosu'nun 16 Şubat 2017 tarihli kararının T paragrafında açıkça belirterek, robotikle ilgili medeni hukuk kuralları hakkında Komisyona tavsiyelerde bulunan Avrupa yasama organını da etkilemiştir.

[5]Bu videoda, yaklaşık bir yıl önce Suudi Arabistan'da robotik ve yapay zekaya adanmış uluslararası bir fuarda tanıtılan bir robot olan Sarah'ı görebilirsiniz: https://www.youtube.com/watch?v=y0LVqoLDmSw .
Robotlara bir isim verebiliriz, ancak bu onların bir kişiliğe sahip olduğu anlamına gelmez. Ya da en azından bugün öyle değil ve bunun ne zaman ve olup olmayacağını bilmiyoruz.

[6] The Guardian'da yayınlanan ve Google'ın yapay zeka etiği hakkında sorular sorabileceğini ancak cevap istemediğini belirten makaleye şu bağlantıdan ulaşılabilir: https://www.theguardian.com/commentisfree/2021/mar/13/google-questions-about-artificial-intelligence-ethics-doesnt-want-answers-gebru-mitchell-parrots-language .

[7]AVRUPA PARLAMENTOSU VE KONSEYİNİN 13 Haziran 2024 tarihli ve yapay zekaya ilişkin uyumlu kuralları belirleyen 2024/1689 sayılı TÜZÜĞÜ (Yapay Zeka Yasası)
Madde 3 Tanımlar

Bu Yönetmelikte geçen tanımlar aşağıdaki gibidir:

(1) 'Yapay Zeka sistemi', farklı düzeylerde özerklikle çalışmak üzere tasarlanmış, konuşlandırıldıktan sonra uyarlanabilirlik gösterebilen ve açık veya örtük hedefler için, aldığı girdilerden, fiziksel veya sanal ortamları etkileyebilecek tahminler, içerik, öneriler veya kararlar gibi çıktıları nasıl üreteceğini çıkaran makine tabanlı bir sistem anlamına gelir.

[8]Gözetim Kapitalizmi Çağı: Gücün Yeni Sınırında İnsanlığın Geleceği İçin Mücadele, Shoshana Zuboff'un 2019 yılında yayınlanan kurgusal olmayan kitabıdır.

[9] İfşa: Cambridge Analytica'nın 50 milyon Facebook profili büyük bir veri ihlali sonucu ele geçirildi. The Guardian'da 17 Mart 2018'de yayınlanan makaleye şu bağlantıdan ulaşabilirsiniz: https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election .

[10] https://thesocialdilemma.com/

[11]Giovanni Buttarelli (Frascati, 24 Haziran 1957 - Milano, 20 Ağustos 2019) İtalyan bir devlet memuruydu. Avrupa Parlamentosu ve Avrupa Birliği Konseyi tarafından Avrupa Veri Koruma Görevlisi (EDPS) olarak atandı. EDPS'ye katılmadan önce Buttarelli, İtalyan Veri Koruma Otoritesi'nin Genel Sekreteriydi . aynı zamanda Yargıtay'da hakim olarak görev yapmaktadır .

[12]ANORC ( Associazione Nazionale Operatori ve Responsabili) İçerik Muhafazası​ digitali / Ulusal Dijital İçerik Koruyucuları ve Operatörleri Derneği) https://anorc.eu/

[13] İtalya: Garante , DeepSeek hakkında soruşturma başlattı, 28 Ocak 2025'te DataGuidance dergisinde yayınlanan makaleye https://www.dataguidance.com/news/italy-garante-opens-investigation-deepseek bağlantısından ulaşılabilir .

[14] 'Öleceksem gürültülü bir ölüm isterim': Gazze foto muhabiri İsrail hava saldırısında öldürüldü , The Guardian'da 18 Nisan 2025'te yayımlanan makaleye şu bağlantıdan ulaşabilirsiniz: https://www.theguardian.com/world/2025/apr/18/gaza-photojournalist-killed-by-israeli-airstrike-fatima-hassouna . Ayrıca , The New York Time'da 26 Nisan 2025'te yayımlanan ve şu bağlantıdan erişebileceğiniz " İsrail'in Gazze Savaşındaki Yapay Zeka Deneyleri Etik Endişelere Yol Açıyor " başlıklı makaleyi okumak da faydalıdır: https://gvwire.com/2025/04/26/israels-ai-experiments-in-the-war-in-gaza-raise-ethical-concerns/ .

[15] https://www.internazionale.it/reportage/laura-melissari/2024/08/06/intelligenza-artificial-lavoratori-sfruttamento .

[16]" Le AI non conoscono la parola futuro ", Andrea Lisi ile yapılan röportaj, 11 Nisan 2025 tarihinde Fare Sanità Dergisi'nde yayınlanmıştır, şu bağlantıdan ulaşılabilir: https://faresanitamagazine.it/le-ai-non-conoscono-la-parola-futuro/ .

Andrea Lisi

© Copyright Alia
Designed by Alia