Yapay Zekanın Yasal Düzenlemesi Sorunu
Hukukun üstünlüğü, nesnel ihtiyaçları yeterince yansıttığında ve sosyal ilişkilerin gelişme yasalarına karşılık geldiğinde etkilidir. Bununla birlikte, bilgi teknolojisi, ilgili yasal düzenlemeden daha hızlı gelişmektedir. Bir zamanlar bilim kurgu olarak kabul edilen yapay zeka ile donatılmış programlar, hayatın çeşitli alanlarında her geçen gün daha fazla kullanılmaktadır.
Gelişmiş teknolojiler, esasen modern bir insanın hayatını önemli ölçüde kolaylaştırmak için tasarlanmıştır. Bununla birlikte, AI sistemlerinin kullanımı her zaman kesinlikle olumlu ve güvenli değildir- bazen uygulamada, çeşitli faktörler nedeniyle, sağlık ve hatta insan hayatı gibi şeylere zarar verebilmektedir.
Bu bağlamda, bu tür sonuçların yasal sorumluluğu, bu tür ilişkileri düzenlemek için mevcut mevzuatın uygunluğu ve yeni haksız fiiller için yasal düzenlemeyi iyileştirme ve uzmanlaştırma ihtiyacı hakkında meşru sorular ortaya çıkmaktadır.
Yapay Zeka Nedir?
“Yapay zeka” (AI) terimi ilk olarak 1956’da Amerikalı bilgisayar bilimcisi John McCarthy tarafından tanıtıldı.
1980’lerin başında Bilgi işlem uzmanı bilim insanları Barr ve Feigenbaum, şu yapay zeka tanımını (AI) önerdiler:
Yapay zekâ, akıllı bilgisayar sistemlerinin, yani geleneksel olarak insan zihniyle ilişkilendirdiğimiz yeteneklere sahip sistemlerin (dil anlama, öğrenme, akıl yürütme yeteneği, problem çözme vb.) geliştirilmesiyle ilgilenen bir bilgisayar bilimi alanıdır.
Daha sonra, ayırt edici özelliği, bazı sorunları, çözümlerini düşünen bir kişinin yapacağı gibi çözebilmeleri olan bir dizi algoritma ve yazılım sistemi, AI olarak anılmaya başlandı.
Yapay zekânın temel özellikleri, dili anlama, öğrenme ve düşünme ve daha da önemlisi hareket etme yeteneğidir.
AI, niteliksel ve hızlı bir şekilde gelişen ilgili teknolojiler ve süreçler kompleksidir, örneğin:
-Doğal dilde metin işleme
-Makine öğrenme
-Uzman sistemler
-Sanal aracılar (sohbet robotları ve sanal asistanlar)
-Tavsiye sistemleri
2021 için araştırmacılar, yapay zekâ türleri için aşağıdaki sınıflandırmayı kullandı:
Yapay Süper Zekâ (ASI), yalnızca maksimum insan yeteneğini yeniden üretemeyen, hatta onu aşan varsayımsal bir yapay zekadır. ASI ‘ye inananlar, bir kişinin onu iradesine tabi kılmak için düşüncelerine ve duygularına nüfuz etme gücü kazanacağına inanırlar.
Kalan varsayımsal güçlü veya makullük açısından genel AI (Yapay Genel Zekâ, AGI), ASI’den bir adım daha düşüktür, bu tür AI’nın taraftarları, en azından performans gösterebilen makineler yaratma olasılığı ile inançlarında sınırlıdır.
Zayıf veya dar AI (Yapay Dar Zekâ, ANI), makinelerin davranışında zekanın zayıf ipuçlarını görmenizi sağlar (bu yüzden buna zayıf denir).
Yapay zekânın eskimiş genel tanımları:
(J. McCarthy) AI, akıllı davranışlara sahip makineler geliştirir.
(Britannica) Yapay Zekâ, dijital bilgisayarların genellikle çok zeki insanlarla ilişkilendirilen sorunları çözme yeteneğidir.
(Feigenbaum) AI- geleneksel olarak insan zihniyle ilişkilendirdiğimiz yeteneklere sahip akıllı bilgisayar sistemleri geliştirir: dili anlama, öğrenme, akıl yürütme yeteneği, problem çözme vb.
(Elaine Rich) AI, bilgisayarlara insanların şu anda daha iyi olduğu bir şeyi yapmayı öğretme bilimidir.
İngiliz bilim insanı Stephen Hawking, insan ırkının olası yok oluşunun gerçek nedeni olarak yapay zekanın (AI) geliştirilmesinden sık sık söz etmiştir.
Nisan 2017’de Stephen Hawking, Küresel Mobil İnternet Konferansı’nın bir parçası olarak Pekin’de düzenlenen bir video konferans sırasında şunları söyledi:
“Yapay zekânın gelişimi insanlık için hem en olumlu hem de en korkunç faktör olabilir. Temsil ettiği tehlikenin farkında olmalıyız” (1).
Bilim insanının Kasım 2017 sonunda Wired ile yaptığı röportajda söylediği gibi, yapay zekânın genel olarak insanların yerini alabileceğinden korkuyor.
Hawking’e göre, insanlar hedeflerine ulaşmada son derece iyi olacak çok güçlü yapay zekâ üretebilirler. Ve bilim adamı, bu hedefler insanınkilerle örtüşmezse, o zaman insanların sorunları olacağına inanıyor.
ABD Başkanlık Yönetimi, İnsanları Yapay Zekadan Korumak İçin 5 Hüküm Çıkardı
7 Ekim 2022’de Beyaz Saray Bilim ve Teknoloji Politikası Ofisi (OSTP), otomatik sistemlerin tasarımına, kullanımına ve uygulanmasına rehberlik edecek beş kılavuz yayınladı. (2)
Taslak beş ilkeden ve ilkelerin önemi, ilkelerle ilgili beklentiler ve ilkelerin uygulamaya nasıl dönüştürüleceğini içeren bir teknik yardımcıdan oluşur. Ancak, yasal olarak bağlayıcı bir belge değildir, bu nedenle ilkeler sadece tavsiye niteliğindedir.
Önerilen beş ilke şunlardır:
- Güvenli ve etkin sistemler,
- Algoritmik Ayrımcılık Korumaları,
- Veri gizliliği,
- Bildirim ve açıklama,
- İnsan Alternatifleri, Değerlendirme ve Geri Dönüş.
Taslak, bu ilkelerin uygulama kapsamını otomatikleştirilmiş sistemler olarak tanımlar. Bununla birlikte, tüm otomatik sistemler bunlara tabi değildir, yalnızca “Amerikan halkının haklarını, fırsatlarını veya kritik kaynaklara veya hizmetlere erişimini anlamlı bir şekilde etkileme potansiyeline” sahip olanlar bunlara tabidir.
Taslağın ekinde, bu otomatik sistemlere bazı örnekler verilmiştir: “gözetleme ve ceza adaleti sistemi algoritmaları, eğitimle ilgili sistemler ve sağlık ve sağlık sigortası teknolojileri”
Avrupa Yapay Zekâ Etik Şartı, Aralık 2018’de Avrupa Adaletin Etkinliği Komisyonu’nun (CEPEJ) genel kurulu toplantısında kabul edilmiştir.
Yapay zekanın yargı sistemlerinde ve ilgili alanlarda uygulanmasına yönelik beş ana ilkeyi özetlemektedir: temel haklara saygı, ayrımcılık yapmama ilkesi, kalite ve güvenlik ilkesi, şeffaflık, tarafsızlık ve adalet ilkesi ve “kullanıcının kontrolünde” ilkesidir.
Avrupa Komisyonu tarafından Şubat 2020’de yayınlanan AI beyaz kitabı, Avrupa’nın küresel robotik ve yapay zekâ endüstrisindeki rolünü övüyor ve Avrupa Birliği’nin dijital ekonomi inovasyonu ve uygulamalarında küresel bir lider olma potansiyeline sahip olduğunu savunuyor.
Bu belgeye göre, tüm Avrupa toplumuna fayda sağlayacak olan yapay zekânın geliştirilmesine yönelik Avrupa stratejisinin başarılı bir şekilde uygulanmasının anahtarı, bir “mükemmellik ekosistemi” ve “güven ekosistemi” oluşturmaktır. (3)
NATO Yapay Zeka Stratejisinin Özeti
Kuzey Atlantik İttifakı da yapay zekâ teknolojileri konusunda kendi stratejik belgesini geliştirdi.
Resmî web portalında yayınlanan bir özete göre (4) NATO Yapay Zekâ Stratejisi, yapay zekanın İttifak ve müttefikleri tarafından şu ilkelere uygun olarak kullanılmasını ifade eder: meşruiyet, sorumluluk ve hesap verebilirlik, açıklana bilirlik ve izlenebilirlik, güvenilirlik, yönetilebilirlik, yanlılığın azaltılması.
Bu nedenle, yapay zekâ alanındaki Amerikan yasal politikasının ana stratejik öncelikleri, ulusal güvenliğin sağlanması (büyük ölçüde AI teknolojilerinin hızlı gelişimi bağlamında ortaya çıkan dış tehditlerden) ve küresel yapay zekâ pazarında rekabetçi liderliğin sürdürülmesidir.
Genel Olarak
AI’nın tüm olumsuz tezahürleri üç duruma iner: programdaki kusurlar veya yanlış çalışması nedeniyle zarara neden olmak; suç işlemek için teknolojinin insan tarafından kullanılması; bir yapay zekâ birimi tarafından bağımsız olarak ve kendi inisiyatifiyle zarar vermek.
Devlet ve toplumsal süreçlerin kapsamlı bir şekilde dijitalleşmesi, “oyunun kurallarının” belirlenmesi, hukuki ilişkilerde katılımcıların haklarının sağlanması ve kötüye kullanımın önlenmesi için bu ilişkilerin yasal düzenlemelerinin geliştirilmesini zorunlu kılmıştır. Dijital trendler arasında özel bir yer, şu anda yasal düzenlemesi olmayan yapay zekâ tarafından işgal edilmektedir.
Aslında, yapay zekâyı özel olarak düzenleyecek hiçbir yasal norm yoktur. Avrupa düzeyinde, şimdiden ilk girişimler söz konusudur. Örneğin, AB Komisyonu gelecekteki düzenlemeler için bir temel olarak “Yapay Zeka ve Kurallarda Yüksek Kaliteyi Teşvik Eden Önlemler” önermiş ve yapay zekayı bir piramit içinde farklı risk seviyelerine göre sınıflandırmıştır.
Bu nedenle Komisyon, AI kullanılarak nelere izin verilmesi veya neyin yasaklanması gerektiğini açıkça tanımlamak istemektedir.
Örneğin Çin’de uygulanan sosyal puanlama kabul edilemez olarak değerlendirilecektir.
“Chatbots” gibi yapay zeka sistemleri sınırlı bir risk olarak sınıflandırılacak ve bu nedenle belirli koşullar altında izin verilecektir (kullanıcı onayı).
Öte yandan, ulaşım gibi kritik altyapılarda veya ürün güvenliğinin bir bileşeni (robotik cerrahi) olarak kullanılan yapay zekâ, yüksek risk kategorisinde olacaktır.
Planlanan düzenlemeye ek olarak, Komisyon bu konuda bir grup uzmanı da bir araya getirdi. AI Üst Düzey Uzman Grubu (HLEG), AI’nın etik olarak ele alınması için 7 temel gereksinimi değerlendiriyor. Bunlar, güçlü bilgi güvenliği ve veri yönetiminin yanı sıra sosyal ve çevresel refah arayışını (anahtar kelime yeşil enerjidir) içermektedir.
Ancak, bu merkezi gereklilikler bile henüz yasal olarak bağlayıcı normlar haline gelmemiştir.
Yasal Çerçeve
Yasal düzenlemenin olmaması bazı temel yasal soruları gündeme getiriyor:
-Bir yapay zekâ hata yaparsa kim sorumlu?
-Üretici mi, ithalatçı mı yoksa yapay zekânın kendisi mi?
-Veri koruma durumu nasıl değerlendirilmeli?
-Tüm veriler güvende mi?
Teknolojinin durumu (henüz) bir AI sisteminin artık bir insan bileşenine ihtiyaç duymayacak kadar kendi kendine yeterli olduğu noktaya ulaşmadı. Bununla birlikte, bu e-kişilik kavramı gelecek için akılda tutulmalıdır- yapay zekâ sistemlerinin gelecekte daha da özerk hale geleceği göz ardı edilemez.
Aksi takdirde, ürün bileşeninin üreticileri de kusurlardan sorumlu olabilir. Bunu göstermek için yine AI yazılımı olan bir araba örneğini alabiliriz. AI’daki bir hata hasara neden olduysa ve bir donanım hatasından açıkça ayırt edilebiliyorsa, AI üreticisi sorumlu tutulabilir.
Bir otomobil üreticisinin ürettiği mekanik bir parçanın kusurlu olması ve bunun hasara yol açması halinde, otomobil üreticisinin sorumlu tutulması gerekecektir. Ancak yapay zekâ ile donanım ve hatta üçüncü taraf verileri arasındaki sınırların bulanıklaştığı durumlarda sorumlu tarafı belirlemek çok zor veya imkânsız olabilir. Bu durumda ancak müşterek ve müteselsil sorumluluk mevcut kanun yolları ile çözüm olarak değerlendirilebilir.
WIPGizlilik Politikası
Veri koruma konusu da yapay zekâ bağlamında önemli bir rol oynar. Basitçe söylemek gerekirse, AI, büyük miktarda verinin (Büyük Veri) toplanmasıyla karakterize edilir. Bu nedenle, kişisel verileri yapay zekâ kullanarak işlerken Genel Veri Koruma Yönetmeliği (GDPR) hükümlerine uymak artık her zamankinden daha önemli.
AI verileri tamamen silebilir veya unutabilir mi? Mümkün olsaydı, silinen verileri kurtarmak da mümkün olur muydu? Bu nedenle, veri koruma hukuku alanında, AI da bizim için henüz cevaplanmamış, yasa tarafından desteklenen birçok soruyu gündeme getiriyor.
AI ayrıca iklim ve çevrenin korunmasında da önemli bir rol oynar. Yapay zekâ kullanımının iklimimiz üzerinde ve AB tarafından belirlenen iklim hedeflerine ulaşılması üzerinde gerçekten olumlu bir etkisi var mı? Cevap belirsiz: yapay zekâ, iklimin korunmasına önemli bir katkı sağlayabilir. Örneğin tarımda ve yasa dışı ağaç kesimini önlemek için zaten kullanılıyor. Ancak, yapay zekânın otomatik olarak daha iyi iklim korumasına yol açtığını varsaymak yanlış olur.
Burada da sürdürülebilir kalkınma ön plana çıkarılmalı ve uygun çerçeve koşulları oluşturulmalıdır. AI uygulamaları çok fazla enerji ve kaynak gerektirir ve bu nedenle küresel elektrik tüketimini artırabilir.
Sonuç
Dünyadaki hiçbir ülke yapay zekayı bir hukuk konusu olarak tanımıyor- aslında hala ne hakları ne de yükümlülükleri var.- Brezilya, AI’yı bir hukuk temsilcisi olarak tanıma ve ona sınırlı bir dizi özgürlük ve yükümlülük bahşetme olasılığını düşünüyor. Ancak, diğer tüm ülkeler bu konuda daha ölçülü ve şu ana kadar bu yasal konu dikkate alınmadı.
Mevcut yasal çerçeve göz önüne alındığında, birçok sorunun cevapsız kaldığı belirtilmelidir.
Bununla birlikte, AI’nın zaten yasama organının önünde olduğu da açıktır.
Mevcut yasalara başvurmak bir dereceye kadar mümkün olsa da yapay zekâ sistemlerini doğrudan hedefleyen ve açıkça düzenleyen yeni, daha dar kapsamlı yasalar bulunmamaktadır.
Dünyanın en büyük devletleri tarafından organize edilen büyük ölçekli kural koyma çalışmalarının sonuçlarından biri, yapay zekâ ve ilgili teknolojilerin yasal yönleri konusunu dolduran karmaşık teorik ve yasal sorunların çözümüne yönelik güvenilir yaklaşımlar bulmak olacaktır.
WIPO- Dünya Fikrî Mülkiyet Örgütü (World Intellectual Property Organization)- ve OECD- OECD (Organisation for Economic Co-operation and Development)
Ekonomik Kalkınma ve İş birliği Örgütü bazen de İktisadi İş birliği ve Gelişme Teşkilatı uluslararası bir ekonomi örgütüdür- gibi uluslararası kuruluşların girişimleri de bu süreçte rol oynayabilir.
Etik normlar ve hukuk, modern toplumda vazgeçilmez bir şekilde bağlantılıdır. Önemli yasal kararların alınması çeşitli etik kurallardan etkilenir. Yapay zekâ, belirtilen sorunları yeni bir boyuta dönüştürüyor.
Yapay zekâ kullanan sistemler, gerçekleştirdikleri görevlerin karmaşıklığı ve bunların dış ortam üzerindeki potansiyel etkileri nedeniyle daha özerk hale geliyor.
Bu, insanın aktivitelerini anlama, tahmin etme ve kontrol etme yeteneğini azaltır.
İnsanlar genellikle bu tür sistemlerin gerçek özerklik düzeyini hafife alırlar. Yapay zekâ üzerine kurulu makinelerin kendi deneyimlerinden ders çıkarıp, geliştiricilerin kastetmediği eylemleri gerçekleştirebileceğinin altı çiziliyor.
Yapay zekânın özgüllüğü göz önüne alındığında, belirli sistemlerin doğrudan sorumluluğu hakkında önerilerde bulunur. Bu mantığa dayanarak, özerklerin eylemlerinden hukuken sorumlu tutulmasını engelleyen hiçbir temel neden yoktur. Bununla birlikte, bu tür bir sorumluluğun (özellikle mevcut aşamada) dayatılmasının gerekliliği veya tavsiye edilebilirliği konusundaki soru açık kalmaktadır.
Otonom sistemlerin programcılarını veya kullanıcılarını bu sistemlerin eylemlerinden sorumlu tutmak daha etkili olabilir. Ancak yenilikleri yavaşlatabilir.
Lon Fuller , Hukuk Ahlakı adlı çalışmasında, hukukun üstünlüğünü, toplumun resmi kurumları ile ‘hukukun iç ahlakı’ olarak adlandırdığı şeyin bir bileşimi olarak algılar ve bunu sekiz biçimsel ilke aracılığıyla tanımlar: 1) Kural olmalı, 2) Geçmişe dönük değil ileriye dönük olmalı, 3) Yayınlanmış olmalı, 4) Anlaşılır olmalı, 5) Çelişkili olmamalı, 6) Kurallara uygunluk mümkün olmalı, 7) Kurallar olmalı sürekli değişmemeli ve 8) Görevliler tarafından açıklanan ve uygulanan kurallar arasında uyum olmalıdır.
Hukukun üstünlüğünün, örneğin şeffaflık, tanıtım, adalet ve öngörülebilirlik gibi bir takım biçimsel özellikleri kapsadığı iddia edilmektedir.
Bu nitelikler kendi başlarına bir amaç değildir, daha ziyade onların varlığı, örneğin insanın gelişmesi gibi daha yüksek seviyeli hedefleri teşvik eder.
Başka bir deyişle, kanunların şeffaf, öngörülebilir, halka açık ve adil olmasını sağlamak, hukukun üstünlüğünün birkaç niteliğinden bahsetmek gerekirse, bunun bir örneği olarak topluma, insanın gelişmesine ve failliğine maddi olarak fayda sağlar.
Yapay zekanın manipülatif potansiyeliyle ilişkili risklerin yanı sıra, bileşimi ve yasal statüsü, bireyleri, hukukun üstünlüğünün en önemli örneği olan insanı destekleyen yasal mekanizmaları aşındırdığı ölçüde tehdit ediyor.
Dr. Bilal TANRIVERDİ’nin tüm blog yazılarını bağlantıdan görebilirsiniz.
Yazarın Hukuk ve Bilişim Dergisi 12. Sayı’sındaki “Hukuk Bilişimi” isimli yazısını okumak için bağlantıya tıklayınız.
Kaynakça
1-https://www.tadviser.ru/index.php/%D0%9F%D0%B5%D1%80%D1%81%D0%BE%D0%BD%D0%B0:%D0%A5%D0%BE%D0%BA%D0%B8%D0%BD%D0%B3_%D0%A1%D1%82%D0%B8%D0%B2%D0%B5%D0%BD
2- “AI BILL OF RIGHTS MAKING AUTOMATED SYSTEMS WORK FOR THE AMERICAN PEOPLE,” 2022. Available: https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-
3- BEYAZ KİTAP Yapay Zekâ Üzerine- Mükemmellik ve güvene Avrupa yaklaşımı [Elektronik kaynak]. – Erişim modu: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
4- https://www.nato.int/cps/en/natohq/official_texts_187617.htm
Bilal Tanrıverdi, Uzun yıllar Türkiye’de ve yurtdışındaki medya kuruluşlarında muhabirlik editörlük yöneticilik yapmıştır.
Uluslararası Hukuk lisans yüksek lisans ve doktora çalışmalarını Türkiye, İngiltere ve Amerika’da yapan Tanrıverdi, Birçok devlet kurumu, Şirket ve STK’larda da danışmanlık, idarecilik ve uzman görevlerinde bulunmuştur.
Hukuk Çalışma Alanları
Kamu Hukuku
Savaş Barış ve Çatışma Çözümleri
İnsancıl Hukuk
Deniz Hukuku
Enerji Hukuku
Siber Hukuk
Twitter: @btnrvrd