İlkay Aydoğdu

Yapay zeka hukuku

BUGÜNLERDE yapay zekadan bahsetmeyen hiçbir şirket ya da endüstri kalmadı diyebiliriz. Kimileri yapay zeka nedeniyle işsiz kalacağımızdan bahsedereken diğer bir görüş ise etkinlik ve üretimi artırmak için başka bir yol göremediğinden bahsediyor.
Her gelişimde olduğu gibi, yapay zeka teknolojilerinin de topluma ve çalışma hayatına pozitif ve negatif etkileri olmasını bekliyoruz. Ancak olumsuz etkileri en aza indirgemek için alınabilecek önlemler var. Bunların başında da söz konusu teknolojiler tasarlanır ve uygulanırken uygulanması gereken kurallar/standartlar geliyor.
Dünyada teknoloji standartlarının başını çeken ISO ve IEEE organizasyonları çeşitli sektörlerde kullanılacak yönergeleri oluşturmaya başladı. Söz konusu standartların ortak amacı:
• Teknolojiye olan güvenin azalmasının önlenmesi
• Mühendis, yazılımcı ve diğer teknoloji çalışanlarının ürün ve hizmet geliştirirken sadece kâr ve üretim hedefi değil insanların “refah ve iyiliği” (wellbeing) için de göz önünde bulundurulmasının sağlanması
• Etik, şeffaflık ve sorumluluk ilkelerini gözeten sistemlerin kurulması diyebiliriz.
Buna ek olarak, Avrupa Birliği Komisyonu tarafından 18 Aralık 2018 tarihinde yayımlanan “Güvenilir Yapay Zeka Yönerge Taslağı”nın özellikle I.4. bölümünde yer alan “beş prensip ve ilgili değerler”göz önünde bulundurulabilir diye düşünüyorum. Bu beş prensip “insan hakları” odaklı bir yapay zeka geliştirme sürecinden bahsediyor:

1. Yararlılık İlkesi (The Principle of Beneficence: “Do Good”)
Yapay zeka sistemleri insanların bireysel ve toplu refahı için tasarlanmalı ve geliştirmelidir. Sürdürülebilirlik, bereket, gelir artırımı gibi dünyamızın genel sorunlarına çözümler bulmaya çalışmalıdır.

2. Zararsızlık İlkesi (The Principle of Non maleficence: “Do no Harm”)
Zararlar fiziksel, psikolojik, finansal ya da sosyal olabilir. Yapay zeka sistemlerinden üretilen kararlar insan ve toplumun bu zararlara uğramasına yol açmamalıdır.

3. Özerklik İlkesi (The Principle of Autonomy: “Preserve Human Agency”)
Yapay zeka sistemleri insanların özgür irade, sorumluluk ve hesap verilebilirliklerini engellememelidir.

4. Adil Olma İlkesi (The Principle of Justice: “Be Fair”)
Yapay zeka sistemlerini geliştirenler bireylerin ve azınlık grupların ayrımcılık, yanlılık ya da damgalanmaya uğramalarına yol açmamalıdır. Aynı zamanda yapay zeka faydaları tüm bireylere ve azınlık gruplara eşit dağılmalıdır.

5. Şeffaflık İlkesi (The Principle of Explicability: “Operate transparently”)
Yapay zeka sistemlerinin tüm bilgi seviyelerindeki insanlar tarafından anlaşılabilir olması gereklidir. Ayrıca bu sistemleri kullanan bireylerden açık rıza almak bir ön koşul olmalıdır.
Buna karşın, Türk Hukuku’nda yapay zeka kavramı henüz yerleşik bir şekilde literature giremedi. Yapay zeka sistemlerinin (ve robotların) tasarım ve üretim aşamaları çerçevesinde ve sonraki kullanımı aşamasında Türkiye’deki hukuki düzenlemelerin hala sorunlara cevap verebilir nitelikte olduğunu söylemek pek mümkün değil. Yapay zeka sistemleri ile fikri mülkiyet hukuku, cezai sorumluluk, hukuki sorumluluk, sigorta hukuku ve diğer etik konularda uygulanması gereken yasal kurallar maalesef hala net değil.
Bu durumda ülkemizde yapay zeka tasarlayan, geliştiren ve uygulamaya alan şirketlerin “insan odaklı” olmak için daha fazla çaba harcayarak, teknolojiye ve şirketlerine güvenin azalmaması için yukarıda bahsettiğim beş prensibi göz önünde bulundurmaları faydalı olacaktır diye düşünüyorum.

Kaynaklar:
International Organization for Standardization
Institute of Engineers and Everyone Else
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai

2 Aralık 2019

İlgili Haberler

Yazarlar