Yapay zekanın en büyük tehlikesi Skynet değil, insan önyargısı

Yapay zeka, insan doğasının zarar vermesiyle boy ölçüşemez.

Son birkaç yılda, yapay genel zeka (AGI – yapay genel zeka). YGZ esasen yapay süper zekadır. Bir kişinin çözebileceği herhangi bir zihinsel sorunu anlayabilen veya öğrenebilen bir sistemdir. Hayatın neredeyse her kesiminden uzmanlar, bu tür yapay zeka sistemleri hakkında konuşarak onları çıldıracak ve büyük ölüm ve yıkıma neden olacak Terminatör tarzı robotlar olarak sundular.

Warner Bros./YouTube

SpaceX ve Tesla CEO’su Elon Musk, AGI’nin yaratılmasına karşı sık sık konuştu ve bu tür süper akıllı sistemleri kıyamet gibi bir şey olarak sundu. 2018 SXSW konferansında dijital süper zekayı “en büyük ve en alakalı varoluşsal krizkarşı karşıyayız” ve bu sistemlerin nükleer bir soykırımdan daha ölümcül olacağını söyledi. Stephen Hawking, 2014 BBC röportajında ​​”tam yapay zekanın geliştirilmesinin insan ırkının sonunu getirebileceğini” belirterek bu endişeleri paylaştı.

Birçok bilgisayar bilimi uzmanı da buna katılıyor. Örneğin, Berkeley’deki California Üniversitesi’nde Smith-Zade’de bilgisayar bilimi ve mühendisliği profesörü olan Stuart Russell, insan müdahalesi olmadan tanımlamak ve yok etmek için yapay zeka kullanan katil robotlar, silahlar yaratmanın tehlikeleri hakkında kısa bir film uyarısında rol aldı. . Filmin amacı? İnsanları, süper akıllı otonom silah sistemlerini yasaklamak için harekete geçmeye korkutun.

Ancak çok az kişi yapay zeka sistemlerinin zaten insanlara zarar verdiği gerçeğine karşı çıkıyor. Tabii ki, AI sistemleri zaten dünyaya inanılmaz zarar veriyor, ancak düşündüğünüz nedenlerle değil.

Şu anda endişelenmemiz gereken, insanlığa hükmeden ya da tüm dünya kaynaklarını ataş üretimine dönüştüren her şeye gücü yeten bir süper zekanın tehdidi değil. Bu gerçek hala gerçeklikten uzaktır. Bugün, AI kullanan insan kurumlarının faaliyetlerini incelemeli ve analiz etmeliyiz, çünkü uygulanmasının birçok örneği zaten insanlara gerçek ve ciddi zararlar veriyor.

Kaynak: sdecoret/iStock

İnsan Önyargısı Yapay Zekayı Nasıl Etkiler?

İstatistik ve bilgisayar biliminde bir söz vardır: “çöp içeri – çöp dışarı” (eng. GIGO – çöp içeri, çöp dışarı). Bu, makine öğrenimi algoritmaları söz konusu olduğunda ciddi bir sorundur. Derin öğrenme, kalıpları tanımak için bir bilgisayar algoritmasını “öğretmek” için sinir ağlarını kullanan bir makine öğrenme teknikleri ailesidir. Bu örüntü tanıma sayesinde bilgisayarlar, bir müzik parçasını yalnızca birkaç saniye dinledikten sonra şarkıları tanıyabilir ve tanımlayabilir, konuşmayı belirleyebilir ve konuşmacının söylediği kelimeleri deşifre edebilir ve hatta üretebilir. derin sahteler.

Tüm derin öğrenme yöntemleri ve genel olarak tüm makine öğrenme yöntemleri verilerle başlar. Ne zaman bir uzmanın bir tür yüz tanıma programında kullanmak üzere herkese açık fotoğraflar için Facebook gibi bir web sitesine baktığına dair bir haber duyduğunuzda, bu fotoğraflar makine öğrenme algoritmasının eğitildiği verilerdir. Neyse ki, görüntüler bir makine öğrenimi algoritmasından geçirildikten sonra, geliştiriciler tarafından artık ihtiyaç duyulmadığından genellikle kaldırılır. İnsanlar bu yaklaşımın mahremiyet üzerindeki etkileri konusunda çok endişeliler, ancak sorunun özünü anlamak için eski atasözüne geri dönmemiz gerekiyor: “Çöp içeri, çöp dışarı”.

Bu, güzel özçekiminizin mutlaka çöp olduğu anlamına gelmez. Ama ya algoritmaya dahil olan özçekimlerin çoğu ağırlıklı olarak açık tenli veya “beyaz” yüzlerse? Bu durumda AI, bu tür insanları çok iyi tanımayı öğrenecektir. Ve koyu tenli, “siyah veya esmer” yüzleri tanımlama ve tanımlama göreviyle başa çıkacağını düşünüyor musunuz? Bu durumda algoritmanın açık ten tipine sahip yüzleri tanımlamaya yatkın olacağını söyleyebiliriz.

için başvurular ne olacak? kredi almak? Her kredi başvurusunu bir makine öğrenimi algoritması ile beslediyseniz ve bu başvurunun onaylanıp onaylanmadığının yanı sıra, makine öğrenimi algoritmanız bu tür uygulamaları onaylayabilir veya reddedebilir.

Ama ya ona verdiğiniz veriler esas olarak 1) mükemmel kredi geçmişi olan etnik azınlık başvuru sahiplerinin reddedilen kredi başvurularından ve 2) mükemmel kredi geçmişi olmayan beyaz başvuru sahiplerinin kabul edilen başvurularından oluşuyorsa? Bu veriler kullanılsaydı, algoritma yanlışlıkla kredi puanları yerine başvuranların yarışına odaklanmak için eğitilecek ve azınlıklardan veya koyu ten rengine sahip kişilerin reddedilmesi gerektiğini varsayacaktı, çünkü özünde yatan ilke budur. onay sürecinin krediler. Ve algoritma hata yapmazsa böyle bir karar verecek. Aslında, insan yaratıcılarının ona yapmayı öğrettiği şeyi yapacaktır. ve benzeri şeyler zaten oluyor.

Peki ya kolluk kuvvetleri? 1990’lardan başlayarak, dünyanın dört bir yanındaki kolluk kuvvetleri bir model oluşturmak için suç istatistiklerini kullanmaya başladı “tahmine dayalı analitik“Kolluk kuvvetleri için, esas olarak polis kaynaklarını “en çok suçun” meydana geldiği bildirilen bölgelere yönlendirmek. Ancak belirli bir bölgeye, belki de bir azınlık bölgesine daha fazla polis gönderilirse, o zaman bu alanda suç olasılığı yukarıdadır.

Kaynak: geralt/Pixabay

Bu veriler daha sonra bir “tahmin algoritmasına” beslenirse, bölgede daha fazla suç işlendiğini görecek, bu da oraya daha fazla polis göndereceği ve bu da suçta artışa yol açacağı anlamına geliyor. Bu geri bildirim döngüsü, suçun gerçekte nerede olduğunu yansıtmaz, polisin suçu nerede tespit ettiğini yansıtır ki bu çok ince ama önemli bir noktadır. Polis, daha yoksul ve azınlık bölgelerinde daha sık devriye gezme eğiliminde olduğundan, bu tür alanlara ilişkin veriler daha fazla çarpıtılacak ve bu da kolluk kuvvetlerinin önyargısını artıracaktır. Yine, bu hayali, kurgusal bir gelecekle ilgili değil. Çok önyargılı algoritmalar zaten varve bunlar dünya çapındaki polis departmanları tarafından kullanılmaktadır.

Yapay zeka mevcut önyargıları nasıl ortadan kaldırır?

Açıkçası, polis durumunda, makine öğrenimi modelinin neden olduğu zarar açıktır. Farklı ırk ve sosyal gruplarda uyuşturucu kullanımı hemen hemen aynıdır, ancak sistem tahmine dayalı polis kontrolü polis kaynaklarını ağırlıklı olarak fakir ve azınlık bölgelerine yönlendirerek orantısız sayıda tutuklama ve mahvolmuş hayatlar ile sonuçlanıyor.

Yüz tanımaya benzer şekilde, kolluk kuvvetleri suç zanlılarını tanımlamak için bir yüz tanıma sistemi kullanıyorsa ve algoritma koyu tenli veya esmer yüzleri doğru şekilde tanımlamak için eğitilmemişse, daha fazla yanlış pozitif üretecektir.

Bazen yeni isimleri ve yüzleri hatırlamak zordur, ancak bu unutkanlığın bir kısmı “” olarak adlandırılan psikolojik bir fenomenden kaynaklanabilir.çapraz yarış etkisi“.

Ve bir yüz tanıma algoritması yanlışlıkla orantısız sayıda şüpheliyi tanırsa ve bu hatalar tutuklamaya veya daha da kötüsü hapse girmeye yol açarsa, o zaman bu algoritma kendi kendini güçlendirir ve sadece yanlış değil, aynı zamanda tehlikelidir. Bu sorun daha da acildir çünkü uzun yıllardır makine öğreniminin nesnel ve tarafsız olduğunu düşündük.

Kredi başvurunuz reddedildiyse, bu, kredi memurunun ırkçı veya yabancı düşmanı olduğu anlamına gelmez, ancak yalnızca algoritma sizi reddetmeye karar verdiği için. Ve bölgenizde çok fazla polis varsa, ırkçı olmaları gerekmez, sadece algoritma polise mahallenizin daha yüksek suç oranına sahip olduğunu söylemiş ve sonunda polisleri buna inandırmıştır. İşlemediğiniz bir suçtan dolayı tutuklanmışsanız, bu o suç anlamına gelmez. polis veya tanıklar sizi yanlış tanımladı, bilinçsiz ırksal önyargı tarafından yönlendirilen, ancak yapay zeka, yüzünüzü suç işleyen birinin bulanık bir güvenlik kamerası kaydıyla eşleştirdiği için. Tabii ki, bu bilinçsiz önyargı, tanıkların ve operatörlerin bu bulanık AI görüntülerini ve spekülasyonlarını kanıt olarak kabul etmelerini daha olası hale getirebilir.

Bu vakaların her birinde, bir insan yerine bir makine öğrenimi algoritması kullanılır, ancak on yıllardır belgelenen daha yoksul ve azınlık gruplarına yönelik aynı sistematik ayrımcılık ve zulüm modelleri bir şekilde yapay zekada sihirli bir şekilde yeniden üretilir. Bununla birlikte, yapay zekaya hiçbir insani önyargısı yokmuş gibi davrandığımız için, “onun sözünü alırız” ve bu da kaçınmaya “denediğimiz” aynı sistem hatalarına yol açar.

Daha doğru veriler yardımcı olabilir mi?

Bu sorunun çözümü daha iyi veri kullanma ihtiyacı mı yoksa sadece açık bir toplumsal yaraya yara bandı koymaya mı çalışıyoruz ve umut ediyoruz? sorun kendi kendine çözülecek?

Tabii ki, makine öğrenimi sürecinde verilerin yanlılığını hesaba katarsanız, daha iyi modeller elde edebilirsiniz, ancak mükemmel olmayacaklar. Bu tür hataların etkisinden asla tamamen kurtulamayız ve böyle bir hedefin kendimiz için koymaya değer olup olmadığını merak etmek için her türlü neden vardır. İmkansız bir görev olabilecek sadece tarafsız AI sistemleri oluşturmaya çalışmak yerine, çözmeye çalıştığımız belirli bir sorunun kökeninde ne olduğunu ve gerçekten gerekli olup olmadığını ve yapay zekanın yardımının gerekli olup olmadığını sormaya değer olabilir. gerçekten gerekli. zeka.

New Jersey’deki Rutgers Hukuk Okulu’nda algoritmik önyargı üzerine çalışan bir avukat ve araştırmacı olan Rashida Richardson, çözümün açık olduğunu savunuyor: Bu kötüye kullanım tarihini bir “tarafsız” makine öğrenimi incir yaprağıyla örtmeye çalışmak yerine, çabalarımız yapay zekanın çözmeye çalıştığı temel sorunları çözmeye odaklandı. Başka bir deyişle, sosyal çevremizdeki mevcut sorunları çözmeye odaklanmamız gerekiyor. Bundan sonra etkili yapay zeka araçları oluşturmaya başlayacağız.

Belki de uzak bir gelecekte, Terminatör biçimindeki yapay zeka hakkında endişelenmeye başlamamız gerekecek. Ancak şu ana kadar korku propagandası herhangi bir fayda sağlamamakta ve yalnızca yapay zekanın neden olduğu gerçek zarar hakkında konuşmaktan uzaklaştırmaktadır.

Similar Posts

Leave a Reply

Your email address will not be published.