Yapay Zekâ Kullanımından Doğan Sorumluluk Tamam, Peki Ya Kullanmamaktan?
-
24.01.2025
Yapay zekâlı otonom sistemlerin dahil olduğu suçlarda ceza sorumluluğu, literatürde özellikle son yıllarda yaygın biçimde tartışılmaktadır. “Robot suç işlerse kim sorumlu olur?”*** sorusu farklı perspektiflerden incelenmektedir. Örneğin, “robotun kendi sorumluluğu” gibi antropomorfik bakış açısının sonucu olan yaklaşımlar, prematüre olarak hukuki metinlere taşınmaya çalışılmışsa da[1], bunlardan başarılı olan çıkmamıştır. Robotun kendi sorumluluğu dışında makinenin arkasındaki kişilerin taksirli sorumluluğu, özellikle izin verilen risk ve güven ilkesi bağlamında daha isabetli bir inceleme noktası sunmaktadır.
***Bu ifadenin yanlış bir öncülden hareket ettiğini düşünerek kullanımını hatalı buluyorum. Zira, ‘robotun’, yani yapay zekâlı, fiziksel donanıma sahip, otonom özellikler gösteren bir sistemin suç işleyebilmek; dolayısıyla ceza hukuku anlamında fiil gerçekleştirebilmek şeklinde bir kapasitesi olduğunu söylemek bugün için mümkün değildir.
Vurgulanması gereken bir diğer husus, çalışmada her ne kadar ‘otonom’ kavramı benimsenmişse de, bu felsefi anlamda otonomluğu değil; literatürdeki yerleşik kullanıma uygun olarak teknik anlamdaki otonomluğu ifade etmektedir.
Vurgulanması gereken bir diğer husus, çalışmada her ne kadar ‘otonom’ kavramı benimsenmişse de, bu felsefi anlamda otonomluğu değil; literatürdeki yerleşik kullanıma uygun olarak teknik anlamdaki otonomluğu ifade etmektedir.
Yapay zekâlı otonom sistemlerin kullanımından doğan suç sorumluluğu tartışıladursun; bu sistemlerin kullanılmamasınınsorumluluğa neden olup olmayacağı yakın gelecekte etraflıca tartışılacak konulardandır. Başka bir ifadeyle: “bir işin yerine getirilmesinde YZ’li otonom sistemlerden yararlanılmaması veya bu işin o sistemlere yaptırılmaması sonucu meydana gelen sonuçtan ilgili kişi ceza hukuku bakımından sorumlu tutulabilir mi?” şeklinde formüle edilebilecek soru, çalışmada ana hatlarıyla incelenerek geleceğe dair kimi fikirler ileri sürülecektir. Bunlardan biri şudur: Gelecekte birçok insan davranışı atipik hâle gelebilir ve örneğin otomobilini kendi kullanmaya kalkan kişi özen yükümlülüğünü ihlâl ediyor olabilir. İfade etmek gerekir ki, özen yükümlülüğü ekseninde yapılacak bu incelemeler yalnız ceza hukukunu değil, medeni hukuku da ilgilendirmektedir.
Yapay zekâlı sistemler hâlihazırda sağlıktan ulaşıma birçok sektörde kullanılmakta; her geçen gün insanların alışkanlıklarına ve günlük tasarruflarına daha uygun hâle gelerek, birçok işi devralmaktadır. Bu eğilimin gelecekte de süreceğini ve günümüzde kısmen devredilen işlerin gelecekte çeşitli nedenlerle daha fazla devredileceğini öngörmek mümkündür. Esasen sorumluluk bakımından sorunlara yol açan hususlardan biri de burada yatmaktadır: Gün geçtikçe otonom sistemlere daha fazla devredilen işler ve azalan insan kontrolü. Bu hususu vurgulamak için doktora tezimde bahsettiğim bir benzetmeyi yinelemek gerekirse: Belki de artık basit kuklalardan değil; üzerindeki etkimizin giderek azaldığı ve öngörülmez hâle geldiği Pinokyo’(lar)dan söz ediyoruz.
Özellikle örüntü tanımadaki başarısı ve işlem kabiliyeti bu sistemlerin birçok işi insanlara göre daha iyi yapmasını sağlamaktadır. Gerçekten, bu sistemler geleneksel olarak insanlar tarafından yerine getirilen birçok işi daha yüksek doğruluk ile daha verimli biçimde yerine getirmektedir. Diğer yandan geniş dil modeli (LLM) destekli chatbot gibi sistemler insan iletişiminin yerini alarak çok sayıda kullanıcıya daha az maliyetle hizmet sunduğu için tercih edilmektedir. Ancak pek çok işin sağlıklı yürütülmesi hâlâ insanın gözetim ve onay suretiyle sürece dahil olmasını veya daha teknik bir ifade ile ‘human-in-the-loop’[2] gerektirmektedir. Zira, bu sistemlerin kendilerinin yeni olması bir yana, kullanımı henüz yaygınlaşmaktadır; olası çıktı ve risklerinin tümü bilinir nitelikte değildir. Sıklıkla ve çeşitli nedenlerle hata yapma potansiyeli taşıdığından, en geç eyleme geçme sırasında insan gözetimi gerekmektedir. Ne var ki, gelecekte bu sistemlerin başarısı arttıkça ve hatalı çıktıların oranı azaldıkça insan gözetimine duyulan ihtiyaç da farklılaşacak; belki tamamen kaybolmayacak, fakat niteliği değişecektir.
Diğer yandan günümüzde dahi her aşamada insan denetimi genellikle mümkün olmamaktadır. Üstelik bu durum, bu sistemlerden beklenen otonom işlevler ile de örtüşmemektedir. Nitekim, bazı işlerin yerine getirilmesi bu sistemlerin otonom biçimde çalışmasını gerektirirken, üretilen her bir çıktının bir insan tarafından kontrol edilmesi ve onaylanması bu sistemlere duyulan ihtiyaç ile çelişmektedir. Bu durumu ortaya koyan örneklerden biri uzay görevleridir[3]. Aradaki mesafe ve fizik kurallarının anlık iletişimi (dolayısıyla komutu) olanaksız kıldığı bu tür işlerde, yapay zekâlı sistemlerin otonomluğu zorunlu hâle gelmektedir.
Yapay zekâlı otonom sistemlerin birçoğunun eylemleri*, insanlar tarafından ancak genel akış içerisinde denetlenebilir. Örneğin sürücüsüz (günümüz koşullarında yarı-otonom özelliklere sahip) bir otomobilin trafik kurallarına uygun seyri sırasında, trafik akışı dışında bir işle ilgilenmeyen sürücü (sürücü koltuğunda oturan kişi), otomobilin hatalı eylemini fark ettiğinde müdahale edebilir ve etmelidir. Ancak bu durum literatürde kontrol ikilemi (Almanca: Kontrolldilemma)[4]olarak ifade edilen bir soruna yol açmaktadır. Zira insanları kontrol yükümlülüğünden kurtarmayı hedefleyen otonom sistemlerin aynı zamanda her aşamada denetlenmesi ve adeta bir insanın kontrolü altındaymışçasına müdahale etmek üzere yükümlü kılınmasının bir çelişki olduğu ifade edilmektedir. Üstelik bu, pratikte neredeyse imkânsızdır; çünkü çoğu durumda müdahale etmek için gerekli olanak ve yeterli zaman yoktur. Örnek olarak sunulabilecek kaza anını gösteren bu videoda[5], otomobilini park etme işini yarı-otonom sisteme devreden kişinin, bu sistem otomobilin başka bir araca 0,3 saniye gibi kısa bir sürede çarpmasına neden olduğundan, müdahale etmesi pratikte olanaksızdır. Bu olanaksızlık içerisinde müdahale beklentisi hukuken kişinin kendinden beklenemeyecek bir yükümlülüğe tabi kılınamayacağını belirten ultra posse nemo tenetur ilkesiyle çelişmektedir.
Münih Yerel Mahkemesi’nin 2007 yılında verdiği bir karar, her ne kadar bir medeni hukuk davasında olsa da, bu konuda isabetli bir görüş ortaya koymaktadır. Otomobilde kullanılan park yardım sisteminin sinyal vermemesi nedeniyle oluşan zararlı sonuçta mahkeme, sürücülerin yalnızca bu tür teknolojilere güvenemeyeceklerini; kendi gözlem ve denetimleriyle güvenliği sağlamaları gerektiğini vurgulamıştır[6].
Buraya kadar açıklanan hususlar yapay zekâ(lı) sistemlerin(in) bir şekilde dahil olduğu suç ve zararlı sonuçlardan doğan sorumluluğa ilişkin özen yükümlülüğünün gerektiği gibi yerine getirilmesine yöneliktir. Bununla birlikte, bir işin yapılmasında yapay zekâlı sistemlerin kullanılması kadar kullanılmaması da sorumluluk incelemesine konu edilebilir. Diğer bir ifadeyle, yaygın ve yerleşik olarak insanlar tarafından yerine getirilen kimi işlerin YZ’li sistemlere devredilmesi veya bu sistemlerden destek alınması özen yükümlülüğünün gerektiği gibi yerine getirilmesi için gerekli olabilir. O hâlde,zarar olasılığını ve miktarını en aza indirecek şekilde teknolojik olanakların insanın gözetim ve denetimiyle birleşmesi gerektiğini ileri sürmek mümkündür.
Daha sade bir ifadeyle açıklamak gerekirse, yapay zekâlı sistemler örüntü tanıma gibi konulardaki başarısı sayesinde insanların gözünden kaçabilecek birçok hususu tespit edebilmektedir. Örneğin, akciğer kanserinin tespiti gibi tıbbi görüntülemelerde birçok vakada insan gözü ve muhakemesinden daha başarılı ve verimli sonuçlar sunabilmektedir[7]. Ancak bunun niceliksel olarak “daha iyi” veya “daha kötü” şeklinde ifade edilebilecek bir husus olmadığı, birçok pozitif ve negatif yanlış sonuç olabileceği unutulmamalıdır. Nitekim, aksi yönde birçok bulgu da mevcuttur. Örneğin derin öğrenmeye dayalı kimi modellerin tıbbi görüntülemede COVID-19’un tespitinde cinsiyete dayalı yanlılık nedeniyle hatalı sonuçlar ürettiği görülmektedir[8]. Dolayısıyla en sağlıklı sonuçlar bu sistemlerden de yararlanılarak insan denetiminde “human-in-the-loop” veya “human-over-the-loop” ile alınabilir. Bir diğer ifadeyle, özen yükümlülüğü günümüzde ancak insan gözetiminde teknolojik imkânlardan yararlanarak yerine getirilebilir. Bir işin tamamen YZ’li sistemlere bırakılması, hatalı ve istenmeyen sonuçlara yol açabileceğinden özen yükümlülüğünün ihlâline neden olabilecektir. Buna karşılık belli işlerde daha fazla başarı sağlayabilecek bu teknolojik imkânların hiç kullanılmayarak eski ve geleneksel yöntemlere sadık kalınması da özen yükümlülüğünün tam olarak yerine getirilmemesi sonucunu doğuracaktır. Kısacası, günümüzde YZ sistemlerinin insan gözetiminde kullanımı yeni lex artis hâline gelmektedir.
Yapay zekâlı otonom sistemlerin kullanımının özen yükümlülüğü kapsamında değerlendirilmesi için mutlaka bir hukuki düzenlemede bu hususun açıkça ifade edilmesi gerekmemektedir. Zira, taksirli sorumluluk bağlamında özen yükümlülüğünün kaynağı yazılı hukuki metinler olabileceği gibi; yazılı olmayan kurallar, mesleki tecrübe ve davranış kuralları, standartlar, idari ve operasyonel talimatlar, kullanım protokolleri gibi geniş bir çerçeveden doğabilir[9]. Ayrıca gerekli olduğu durumlarda, en son teknolojiye bağlı kalınmasını gerektirir. Keza, potansiyel olarak riskli faaliyetlerde bulunurken, zarardan kaçınmaya dair genel ilke her halükârda geçerlidir. Dolayısıyla yalnızca kâğıt üzerinde yapılan bir değerlendirme ile standartların yerine getirildiğinin tespiti yalnızca bir indikatör niteliğinde olup, gerçekte özen yükümlülüğünün yerine getirildiği anlamına gelmez[10]. Mahkemenin önüne gelen davada somut olayın tüm koşullarını dikkate alarak değerlendirmede bulunması gerekir.
Dikkat edileceği üzere, bu yazıda yapay zekâlı sistemler aracılığıyla bir işin daha iyi veya verimli biçimde yerine getirilmesinden söz edilmiştir. Dolayısıyla, burada incelenen husus aynı zamanda bir hukuk politikası sorunu olarak karşımıza çıkmaktadır. O hâlde soru şudur: “Verimlilik uğruna başarı feda edilebilir mi?”. Diğer bir söyleyişle, bir işin otomatize edilerek veya otonom sistemler aracılığıyla daha verimli olarak yerine getirilmesi, o işte bu sistemlerin kullanımını; yani özen yükümlülüğünün gerektiği gibi yerine getirilmesi bakımından bu sistemlerin varlığını gerekli kılar mı? Yanıt hiç şüphesiz hayır olacaktır. Nitekim verimlilik ve makullük amacıyla yapılanlar sorumluluk bakımından birçok alt değerlendirmeyi gerekli kılsa da, özen yükümlülüğünün yerine getirilmesinde kıstas, bir işin daha az riskle yapılması olabilir. Yani, bir işin daha verimli yapılması özen yükümlülüğünün yerine getirilmesi sonucunu doğurmaz[11].
Bu durumu bir örnekle açıklamak gerekirse, tıbbi görüntüleme gibi işlerde yapay zekâlı sistemlerden destek alınması o işin daha sağlıklı yapılmasını sağlamaktayken, söz gelimi bir e-ticaret sitesinin müşteri hizmetleri iletişimini LLM destekli chatbotlara devretmesi temelde verimlilik kaygısını gütmektedir. O işin daha iyi yapıldığını ileri sürmek güçtür. Bu doğrultuda, özen yükümlülüğünün yerine getirilmesi ve dolayısıyla yapay zekâ sistemlerinin kullanımının gerekliliği ancak o işin daha sağlıklı ve daha az riskle yapıldığı tespit edilebilirse ileri sürülebilir. Hatta, şirketlerin kârlılığı artırarak hissedarlarını memnun etmek amacıyla kimi işleri yapay zekâlı sistemlere devretmesi hâlinde özen yükümlülüğünün ihlâl edildiği bile söylenebilir. Sonuç olarak faaliyetin niteliğine göre bir değerlendirmede bulunmak gerekmektedir.
Son olarak, yazının başında bahsedilen otomobilini kendi kullanmaya kalkan kişinin özen yükümlülüğünü ihlal etmesi hususunu açıklamak isabetli olacaktır. Öncelikle belirtmek gerekir ki, bu yalnızca karayolu taşımacılığına özgü bir durum değildir. Gerçekten de gelecekte, birçok geleneksel insan alışkanlığı ve davranışının yeni toplumsal ve hukuki normlar ile uyumsuz olması mümkündür. Bu yeni bir olgu olmayıp, insanlığın ve teknolojinin ilerlemesine paralel olarak hâlihazırda gözlemlenebilir bir durumdur. Yeni teknolojileri benimseyen, daha doğru bir ifade ile kendine dayatılanı ihtiyaç addederek kullanmaya başlayan toplumlarda, eski birçok faaliyet uyumsuz ve hatta lüks olarak sınıflandırılabilir. Bu şekildeki lüks faaliyetlerden kaynaklanan sorumluluk incelemesinde özen yükümlülüğünün derecesi ise çok daha yüksektir.
Geleceğe dair tasarımların birçoğu, ağ üzerinden birbirine bağlı “akıllı” sistemlerden oluşmaktadır. “Akıllı” şehirlerde karayolu trafiğinin de kazaları önlemek amacıyla otonom araçlardan oluşması öngörülmektedir. Her ne kadar birbiriyle konuşan araçlardan oluşan trafikte kaza riski azalsa da, bunların topluca arızalanması veya ‘hacklenmesi’ gibi ağ kaynaklı birçok yeni risk gündeme gelmektedir. Diğer yandan, böylesi bir sistemde bu ağa dahil olmayan, diğer araçlarla konuşamayan aktörler (buna yalnızca aracını kendi kullanan sürücüler değil, eski sürümdeki otomobiller de dahil olabilir) atipik ve uyumsuz kalabilir. Böylesi bir senaryoda, trafiğe katılan “sürücülü” araçlar ironik biçimde risk teşkil edecektir. Dolayısıyla kimi teknoloji şirketlerinin gelecek tasarımlarının[12] kendini dayatan yapısını, özellikle risk incelemelerinde (buna sorumluluk ve izin verilen riske ilişkin değerlendirmeler de dahildir) göz önünde bulundurmak isabetli bir yaklaşım olacaktır.
Sonuç olarak, bu çalışmada, yapay zekâlı (otonom) sistemlerin insan denetimi altında entegrasyonunun yeni lex artis hâline geldiği savunulmuştur. Taksirli suçlar bağlamında, özen yükümlülüğünün ancak teknolojik imkânların insan gözetimi altında kullanılmasıyla yerine getirilebileceği belirtilmiştir. Belirli işlerin tamamen bu sistemlere devredilmesi veya bu sistemlerin hiç kullanılmaması, özen yükümlülüğünün ihlâli sonucunu doğurabilir.
Dipnotlar:
[1] Exploration track: non-human agents and electronic personhood, Suggestion for a green paper on legal issues in robotics, Eds.: LEROUX C./LABRUTO, R., euRobotics The European Robotics Coordination Action, 2012, https://www.researchgate.net/publication/310167745_A_green_paper_on_legal_issues_in_robotics, ss. 58-64.
[2] Human-in-the-loop kavramı, karar verme ve uygulama süreçlerinde insanın müdahalesinin vazgeçilmez olmasını ifade eder. Bu modelde, yapay zekâlı sistem genellikle öneriler sunar; ancak uygulama için insan onayı veya müdahalesi gereklidir. Buna yakın bir diğer kavram olan human-over-the-loop, yapay zekâlı sistemin işleyişinin insan tarafından denetlendiği, beklenmedik sonuçlar durumunda müdahale etme veya performansı optimize etmek için parametreleri değiştirme yetkisinin insanda olduğu bir senaryoyu tanımlar. Buna karşılık, human-out-of-the-loopkavramı, yapay zekâlı sistemin spesifik senaryoda tamamen bağımsız çalıştığı; kararları insan müdahalesi veya denetimi olmaksızın aldığı bir modeli ifade eder. Bkz.: Personal Data Protection Commission of Singapore, “Model AI Governance Framework (Second Edition)”, 21.01.2020, https://www.pdpc.gov.sg/-/media/%20Files/PDPC/PDF-Files/Resource-for-Organisation/AI/SGModelAIGovFramework2.pdf, s. 30, [para. 3.14].
[3] ALONSO Eduardo, “Actions and Agents”, The Cambridge Handbook of Artificial Intelligence, Ed.: Keith Frankish/William M. Ramsey, Cambridge, UK: Cambridge University Press, 2014, s. 235.
[4] HILGENDORF Eric, “Automatisiertes Fahren und Recht”, Veröffentlichung der auf dem 53. Deutschen Verkehrsgerichtstag vom 28. bis 30. Januar 2015 in Goslar gehaltenen Vorträge, Referate und erarbeiteten Empfehlungen, Köln: Luchterhand, 2015, s. 67.
[6] Münih Yerel Mahkemesi (Amtsgericht München), Karar tarihi: 19.07.2007, Dosya no.: 275 C 15658/07, Neue Zeitschrift für Verkehrsrecht (NZV), 2008, s. 35. THOMMEN Marc, “Strafrechtliche Verantwortlichkeit für autonomes Fahren”, in: Strassenverkehr / Circulation routière, 2018, doi:10.5167/uzh-197394, s. 27 vd.; THOMMEN Marc, Sophie MATJAZ, “Die Fahrlässigkeit im Zeitalter autonomer Fahrzeuge”, in: Festschrift für Andreas Donatsch, Eds.: Daniel Jositsch/Christian Schwarzenegger/Wolfgang Wohlers, 2017, doi:10.5167/uzh-149988, s. 287 vd.
[7] LIU Mingsi vd., The value of artificial intelligence in the diagnosis of lung cancer: A systematic review and meta-analysis. PLoS ONE C.18, S.3, doi:10.1371/journal.pone.0273445.
Bu çalışmanın 2022 yılının sonlarında tamamlandığı ve o zamandan beri teknolojideki gelişmeler göz önüne alındığında, günümüzde daha başarılı sonuçlar üreteceği ileri sürülebilir.
[8] DERVISOGLU Havvanur/BILGEN İsmail/HALEPMOLLASI Ruşen/HAKLIDIR Mehmet, “Unfairness of Deep Learning Methods Arising Gender Bias in Covid-19 Diagnosis of Medical Images”, Artificial Intelligence Theory and Application, V. 1, I. 2, 2021, s. 87 vd.
[9] KINDHÄUSER Urs, ZIMMERMANN Till, § 33 Fahrlässigkeit: Strafrecht Allgemeiner Teil, 11. Auflage, Nomos Verlagsgesellschaft, 2024, s. 299 Rn. 26; HILGENDORF Eric, Brian VALERIUS, Strafrecht Allgemeiner Teil, 3. Auflage., Verlag C.H.BECK oHG, 2022, s. 261 vd. Rn. 19vd.; Gropp, Walter/SINN, Arndt: § 12 Fahrlässigkeit: Strafrecht Allgemeiner Teil, Springer-Lehrbuch, Berlin, Heidelberg, 2020, s. 557, Rn. 28 vd.; RENGIER Rudolf, § 52. Das fahrlässige Begehungsdelikt: Strafrecht Allgemeiner Teil, 11. Auflage, Verlag C.H.BECK oHG, 2019, s. 531 Rn. 16 f.; HEINRICH Bernd, Strafrecht - Allgemeiner Teil, 7. Auflage, Stuttgart 2022, s. 443 Rn. 1010; AKBULUT Berrin, Ceza Hukuku Genel Hükümler, 9. Bs., Ankara, Adalet Yayınevi, 2022, s. 502; ZAFER Hamide, Ceza Hukuku Genel Hükümler TCK m. 1-75, 8.Bs., Istanbul, Beta Basım, 2021, s. 347; ÖZGENÇ İzzet, Türk Ceza Hukuku Genel Hükümler, 15. Bs., Ankara, Seçkin Yayıncılık, 2019, s. 269 vd.
[10] WESSELS Johannes, Werner BEULKE, Helmut SATZGER, Strafrecht Allgemeiner Teil, 50. Auflage, Heidelberg: Verlagsgruppe Hüthig Jehle Rehm, 2020, Rn. 1123; HORN Eckhard, “Erlaubtes Risiko und Risikoerlaubnis Zur Funktion des Prüfstellensystems nach § 155 AE”, in: Festschrift für Hans Welzel zum 70. Geburtstag am 25. März 1974, 1974, doi:10.1515/9783110909197-039, 1974, s. 725; STERNBEG-LIEBEN Detlev/SCHUSTER Frank, StGB § 15 Vorsätzliches und fahrlässiges Handeln: Schönke / Schröder Strafgesetzbuch: StGB Kommentar, Eds.: Adolf Schönke/Horst Schröder/Eser Albin, 30. Auflage, München: C.H. Beck, 2019, Rn. 135 f.; WELZEL Hans, Das deutsche Strafrecht: eine systematische Darstellung, De Gruyter Lehrbuch, 11. neubearbeitete und erweiterte Auflage., Berlin, 1969, s. 131 vd.; EISELE Jörg, §12 Die Fahrlässigkeit, in: Strafrecht Allgemeiner Teil: Lehrbuch, (BAUMANN Jürgen/Ulrich Weber/MITSCH Wolfgang/EISELE Jörg), 12. Auflage. Bielefeld, 2016, s. 304 Rn. 35.
[11] Aynı yönde: SANDHERR Urban, “Strafrechtliche Fragen des automatisierten Fahrens”, in: Neue Zeitschrift für Verkehrsrecht (NZV), V. 32, I. 1, 2019, s. 4.
[12] TAYLOR Josh, “Elon Musk unveils Tesla Cybercab self-driving robotaxi”, 11.10.2024, https://www.theguardian.com/technology/2024/oct/11/elon-musk-unveils-tesla-cybercab-self-driving-robotaxi; https://www.tesla.com/we-robot.
-
Baran Kızılırmak
Ar. Gör.KHAS Hukuk Fakültesi Ceza ve Ceza Muhakemesi Hukuku Anabilim Dalı
[email protected]