Yapay Zeka ve Etik
Yapay zekanın sosyal fayda amaçlı kullanımı gündemi içerisindeki önemli bir değerlendirme alanı da “etik”. Bu başlığı ele alan Substack içeriğimizde, konuya dair güncel yaklaşımları inceliyoruz.
Akbank LAB ve imece olarak katıldığımız AI for Good Global Summit’in iç görülerini önceki Substack yayınlarımızda aktarırken, etiğe dair meselelerin, yapay zekanın gelişim süreçleri içerisinde nasıl bir öneme sahip olduğunu da ele almıştık. Yapay zeka teknolojilerinin gelişim hızıyla, yönetişim ve etik gibi konulardaki gelişim hızının farklılığına dikkat çekmiş; yapay zekayla ilgili etik endişeleri hatırlatmış ve yapay zeka geliştirmelerinin gerekli etik, şeffaflık ve sorumluluk kuralları çerçevesinde ilerlemesinin de önemine değinmiştik. Yapay zekanın güvenli ve etik değerler çerçeve edinilerek kullanımı, bu alandaki literatürü oluşturan pek çok yayın ve yazıda da ele alınan bir başlık. Şimdi örnekleri ve bu örneklerde paylaşılan bakış açılarını inceleyelim!
Avrupa Birliği tarafından belirlenen “Güvenilir Yapay Zeka İlkeleri” teknolojinin etik, güvenilir ve insan merkezli bir şekilde geliştirilmesini amaçlıyor. Bu bağlamda oluşturulan 7 ilke şöyle sıralanıyor:
İnsan kontrolü ve gözetimi,
Teknik sağlamlık ve güvenlik,
Gizlilik ve veri yönetişimi,
Şeffaflık,
Çeşitlilik, ayrımcılık yapmama ve adalet,
Toplumsal ve çevresel refah,
“Hesap verebilirlik”
Bu ilkelerin amaçladığı unsurlar ise, bu alanda bir yazı yayınlayan Avukat Murat Osman Kandır tarafından şöyle özetleniyor:
İnsan haklarına ve temel özgürlüklere saygılı olmak,
Yapay zeka sistemlerinin güvenilirliğini sağlamak için standartlar ve sertifikasyon süreçlerinin kullanımı,
Yapay zeka sistemlerinin karar alma süreçlerinin şeffaf olması,
Yapay zeka geliştiricilerinin ve kullanıcılarının teknolojinin etkilerine karşı sorumluluk taşımaları,
Yapay zeka geliştirme süreçlerinde toplumsal farklılıkların göz önünde bulundurulması,
Yapay zekanın çevresel etkilerinin en aza indirilmesi,
Yapay zeka sistemlerinin kişisel verilere uygun bir şekilde erişmesi ve bunları koruması
İşaret edilen bu özelliklerin uygulanmaması halinde doğabilecek etik riskler ise yazar tarafından şöyle sıralanıyor:
“Şeffaflık eksikliği, sistemlerin aldığı kararların izlenememesi ve anlaşılamaması sorunlarına yol açabilir.”
“Kimin belirlediği ahlaki normlara göre programlandığı ve hangi etik değerleri temsil ettiği önemli bir tartışma konusu olabilir.”
“Kişisel bilgilerin güvenliği ve mahremiyeti konusundaki endişeler, yapay zeka uygulamalarının etik durumunu etkileyebilir.”
“Yapay zeka sistemleri, eğitildikleri veri setlerindeki önyargıları öğrenebilir ve bu durum, makinelerin ayrımcılık yapma riskini taşır.”
“Sağlık, güvenlik ve adalet gibi kritik alanlarda kullanılan yapay zeka sistemleri, insan hakları konularını gündeme getirebilir.”
“Bir otonom sistemin hatalı bir karar alması durumunda, kimin sorumlu olduğu ve kimin hesap vermesi gerektiği belirsizlik arz edebilir.”
“Yapay zeka ve otomasyonun gelişmesi, etik dışı amaçlarla kullanılabilecek yeni güvenlik tehditlerini de beraberinde getirebilir.”
Kandır’ın yazısında bu durumların yaşanmaması adına yaptığı uyarı da oldukça kritik: “Etik kurallara uygun yapay zeka ürünleri görmek istiyorsak, tasarımcısından yazılımcısına, eğitim seti oluşturan veri analizcisinden sistemin kullanıcısına kadar tüm aktörlerin etik kurallar çerçevesinde hareket etmesini sağlamalıyız.”
Deloitte Insights tarafından yayınlanan “Yapay zeka etik olabilir mi?” başlıklı raporda kurumlara etik politikalar benimsemek için ilgili yapay zeka regülasyonlarını beklememeleri çağırısında bulunuluyor. Kurumlara, yapay zekanın risk ve fırsatlarını dengelemek için bazı adımlar öneriliyor ve bu adımlar şöyle sıralanıyor:
Üst yönetimin iknası ve paydaşların katılımı
Teknolojiden ve süreçlerden yararlanılarak önyargıların ve risklerin önlenmesi
Şeffaflık sayesinde güven inşaası
Çalışan kaygılarının giderilmesi
Türkiye Yapay Zeka İnisiyatifi (TRAI), bu alanda rapor yayınlayan bir diğer organizasyon. “Yapay Zeka Etik İlkeleri ve Hukuki Düzenlemeler Raporu” başlıklı rapor, yapay zekaya dair etik ilkelerini oluşturmak isteyen işletmelere hitap ediyor. TRAI Direktörü Can Sinemli, rapora dair yaptığı açıklamada, yapay zekanın risklerine karşı hazırlıklı olmayan ve önlemler almayan işletmelerin, maddi zararlar bir yana, telafisi mümkün olmayan güven ve itibar kaybına sebebiyet verecek sonuçlarla da karşı karşıya kalabileceğini vurguluyor. Sinemli’nin konuyla ilgili bir diğer açıklaması da iş birliği çağrısı içeriyor: “Bu konudaki araştırma ve çözümler için kaynak ayrılmalı. Bu kapsamda, teknoloji şirketleri, sivil toplum kuruluşları, üniversiteler ve akademiler ile iş birliği halinde olmak da büyük önem taşıyor.”
Bahçeşehir Üniversitesi Öğretim Üyesi Prof. Dr. Haluk Gürgen de bu alanda değerlendirmeler sunan isimlerden. Gürgen, yapay zekanın etik boyutunu ele alırken “başlangıç noktası” niteliğinde bazı sorular soruyor ve ekliyor: “Bu sistemler geliştikçe yeni ve çok daha çapraşık etik sorunların ortaya çıkacağını söyleyebiliriz.” Gürgen’in soruları şu şekilde:
Yapay zeka sistemleri insan haklarına saygılı bir şekilde mi tasarlanıyor ve kullanılıyor?
Yapay zekanın kullanımı ayrımcılık, önyargı ve adaletsizlik gibi sorunlara yol açabilir mi?
Yapay zekanın yaygınlaşması, işsizlik ve ekonomik eşitsizlik gibi toplumsal sorunları derinleştirir mi?
Yapay zeka sistemlerinin kontrolünü kim elinde tutacak ve bu gücün kötüye kullanılmasını nasıl önleyeceğiz?
Sorulara yanıt olarak yine ilkelere işaret eden Gürgen, “etik ilkelerin belirlenmesi, bu ilkelerin yasal düzenlemelere dönüştürülmesi ve toplumsal farkındalığın artırılmasının büyük önem taşıdığını” söylüyor. Gürgen, “etik meselelere takılıp hızımızı kesmesine izin vermeyelim” yaklaşımının hatalı olduğunu “Bir toplumda evrensel etik ilkelere ilişkin farkındalık ve hassasiyetin gelişmişlik düzeyi düşükse diğer pek çok alanda olduğu gibi yapay zeka konusunda da etik ilkelerin uygulanma şansını azaltacak, yapay zeka hayatı kolaylaştırsa bile yol açacağı adaletsizlikler, mutlu bir yaşam ve gelecek sunmayacaktır” sözleriyle vurguluyor.
AA ve YÖK, hayatımızın her alanında devrim niteliğinde sonuçlar doğuran yapay zeka uygulamalarının etik kullanımı için Türkiye’de rehber çalışması yayınlayan resmi kurumlar arasında. Anadolu Ajansı, medyada yapay zeka kullanımını ve uyulması gereken etik ilkeleri ele alan çalışmasını yayınlarken, Yükseköğretim Kurulu ise bilimsel araştırma ve yayın faaliyetlerinde üretken yapay zeka kullanımına dair bir çalışma yayınladı.
Bu çalışmalar ilginizi çektiyse, etik hassasiyetlere uyarak ortaya çıkan yapay zeka çözümlerinin toplum adına ne tür fırsatlar sunduğunu incelemek üzere, iyi örnek projeleri irdelediğimiz, önceki yayınlarımızı okuyabilirsiniz! Bir sonraki yazımız “yapay zeka ve yönetişim” üzerine olacak!
(Fotoğraf: Google DeepMind/Pexels)