İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, son dönemde yapay zekanın olumsuz kullanımı sorunu ile alakalı görüşlerini paylaştı.
İktidarların sensörler algoritmalar aracılığıyla devamlı farklı noktaları takip edebildiğini, "Bu konuda yeni teknolojileri kullanan ülkelerin başında Çin geliyor.
Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı.
İnsanların vücut sıcaklıklarını, tıbbi durumlarını kontrol etmeye ve bildirmeye zorlamıştı. Bu kapsamda ülkelerin ulusal güvenlik sınır yönetimi konusunda bu teknolojileri kullanması insan hakları açısından endişe verici olabiliyor.
Yapay zekâ araçları gerek insanların profilini çıkararak artan suç ve terörist faaliyet alanlarını belirleyebilmek için sosyal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor."
Myanmar'daki şiddet olaylarının artmasında yapay zekanın rolü "2018 yılında Facebook’un kullandığı yapay zekâ algoritmalar belirli bir zaman sonra şiddet içerikli sayfalar önermeye başlaması teknolojinin olumsuz kullanımını gözler önüne getirdi.
Facebook Myanmar’daki darbe protestocularına karşı şiddeti teşvik eden paylaşımları platformun kötüye kullanmasını kısıtlama sözü vermesine rağmen kaldırmadı.
Global Witness hak grubu, Facebook öneri algoritmasının kullanıcıları şirket politikalarını ihlal eden içeriği görüntülemeye devam ettiğini tespit etti. Ayrıca şirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiğini ortaya çıkardı.
Bu nedenle Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun etkisi olduğu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u aktif kullanıyor.
Dolayısıyla etkili olan bu platformun manipülasyon ve etkileşim politikalarını yapay zekâ teknoloji ile yapıyor olması önemli. Şirket yetkilileri kötüye kullanıldığını kabul ederek hatasını kabul etmişti."
Veri setleri ayrımcılığa ve ırksal önyargılara sebep olabiliyor
Yapay zeka destekli teknolojinin oluşturabileceği tehlikelere karşı uluslararası örgütlerin de harekete geçtiğini, "Birleşmiş Milletler İnsan Hakları Konseyinin yayınladığı raporda, bu teknolojinin başta profil oluşturma, otomatik karar vermek ve makine öğrenimi dahil birçok özelliği ile insan hakları risklerini analiz ettiğini bildiriyor.
Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken yönü bu teknolojide kullanılan veri setleri ayrımcılığa ırksal ve etnik önyargıları tetikleyecek sorunlara neden olacağını açıklıyor."
"Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında hayatı kolaylaştıran imkanlar oluşturduğu gibi insan hakları ihlallerini görmemezlikten gelmek doğru bir yaklaşım olmaz.
Bu yönüyle ülkelerin ve karar vericilerin bu konuda daha çok şeffaf, adil değerlendirme ve yapay zekanın kullanımının etkileri hususunda daha açık olmalı. Konunun uzmanları bu konuda uluslararası bir eylem planının çıkarılması görüşünde.
Teknolojilerin kullanımını kısıtlamadan ziyade, bu alanda çalışan şirketlerin uluslararası hukuk normlarına uyması ve denetlenebiliyor olması başlıca önemli hususlardan. İlk olarak günümüz şartlarına teknoloji ile gelişen bu platformların ülkeler ve aktörler tarafından tarafsızca ele alınması ve mevzuatın oluşması gerekiyor. Bu durumda yapay zekanın idari ve hukuki mekanizmaları ve uygulamaları gelecekte ülkelerin daha çok gündeminde olacak."