Microsoft, ‘Sorumlu AI’ için Push Yüz Analizi Araçlarını Ortadan Kaldırmayı Planlıyor


Aktivistler ve akademisyenler, bir kişinin yaşını, cinsiyetini ve duygusal durumunu tespit edebildiğini iddia eden yüz analiz yazılımının, yıllardır, önyargılıgüvenilmez veya istilacı — ve satılmamalıdır.

Bu eleştirilerden bazılarını kabul eden Microsoft, Salı günü yaptığı açıklamada, bu özellikleri kendi programından çıkarmayı planladığını söyledi. yapay zeka servisi Yüzleri algılamak, analiz etmek ve tanımak için. Bu hafta yeni kullanıcılara sunulmayı bırakacaklar ve yıl içinde mevcut kullanıcılar için aşamalı olarak kaldırılacaklar.

Değişiklikler, Microsoft’un yapay zeka ürünlerinin daha sıkı kontrolleri için yaptığı baskının bir parçası. İki yıllık bir incelemeden sonra, Microsoft’taki bir ekip, yapay zeka sistemlerinin toplum üzerinde zararlı bir etkisi olmayacaklarından emin olmak için gereksinimleri belirleyen 27 sayfalık bir belge olan “Sorumlu Yapay Zeka Standardı” geliştirdi.

Gereksinimler, sistemlerin “çözmek üzere tasarladıkları sorunlar için geçerli çözümler” ve “marjinalleştirilmiş gruplar da dahil olmak üzere tanımlanmış demografik gruplar için benzer bir hizmet kalitesi” sağlamasını sağlamayı içerir.

Bir kişinin istihdama, eğitime, sağlık hizmetlerine, finansal hizmetlere veya bir yaşam fırsatına erişimi hakkında önemli kararlar almak için kullanılacak teknolojiler, piyasaya sürülmeden önce Microsoft’un baş sorumlu AI yetkilisi Natasha Crampton liderliğindeki bir ekip tarafından inceleniyor. .

Microsoft’ta, birinin ifadesini öfke, küçümseme, iğrenme, korku, mutluluk, tarafsız, üzüntü veya şaşkınlık olarak etiketleyen duygu tanıma aracıyla ilgili artan endişeler vardı.

Bayan Crampton, “Kendimizi ifade etme biçimimizde çok büyük miktarda kültürel, coğrafi ve bireysel çeşitlilik var” dedi. Bu, “yüz ifadesinin içsel duygusal durumunuzun güvenilir bir göstergesi olup olmadığı” gibi daha büyük soruların yanı sıra güvenilirlik endişelerine yol açtı.

Saç ve gülümseme gibi yüz özelliklerini tespit etmek için diğer araçlarla birlikte yaş ve cinsiyet analizi araçlarının ortadan kaldırılması, örneğin görme engelli veya az gören insanlar için görsel görüntüleri yorumlamak için faydalı olabilir, ancak şirket, bunu yapmanın sorunlu olduğuna karar verdi. Bayan Crampton, profil oluşturma araçlarının genel olarak halka açık olduğunu söyledi.

Özellikle, sistemin sözde cinsiyet sınıflandırıcısının ikili olduğunu ve “bu bizim değerlerimizle tutarlı değil” diye ekledi.

Microsoft ayrıca, kimlik kontrolleri yapmak veya belirli bir kişiyi aramak için kullanılabilecek yüz tanıma özelliğine yeni kontroller koyacak. Uber, örneğin, yazılımı kullanır Bir sürücünün yüzünün, o sürücünün hesabı için dosyadaki kimlikle eşleştiğini doğrulamak için uygulamasında. Microsoft’un yüz tanıma aracını kullanmak isteyen yazılım geliştiricilerin, erişim için başvurmaları ve onu nasıl dağıtmayı planladıklarını açıklamaları gerekecek.

Kullanıcıların ayrıca, aşağıdakiler gibi potansiyel olarak kötüye kullanım amaçlı diğer AI sistemlerini nasıl kullanacaklarını uygulamaları ve açıklamaları gerekecektir. Özel Sinirsel Ses. Hizmet, birinin konuşmasının bir örneğine dayalı olarak bir insan sesi baskısı oluşturabilir, böylece yazarlar, örneğin, sesli kitaplarını konuşmadıkları dillerde okumak için seslerinin sentetik versiyonlarını oluşturabilirler.

Aracın olası kötüye kullanımı nedeniyle – insanların söylemedikleri şeyleri söylediği izlenimini yaratmak için – konuşmacılar, seslerinin kullanımına izin verildiğini doğrulamak için bir dizi adımdan geçmelidir ve kayıtlar, Microsoft tarafından algılanabilen filigranları içerir. .

11 yıldır Microsoft’ta avukat olarak çalışan ve 2018’de etik yapay zeka grubuna katılan Bayan Crampton, “Yapay zeka ilkelerimizi hayata geçirmek için somut adımlar atıyoruz” dedi. “Bu çok büyük bir yolculuk olacak. ”

Microsoft, diğer teknoloji şirketleri gibi, yapay olarak akıllı ürünleriyle tökezledi. 2016 yılında, etkileşimde bulunduğu kullanıcılardan “konuşma anlayışını” öğrenmek için tasarlanmış Tay adlı bir sohbet robotunu Twitter’da yayınladı. Bot hızla ırkçı ve saldırgan tweetler atmaya başladı ve Microsoft onu kaldırmak zorunda kaldı.

2020’de araştırmacılar, Microsoft, Apple, Google, IBM ve Amazon tarafından geliştirilen konuşmayı metne dönüştürme araçlarının Siyah insanlar için daha az işe yaradığını keşfetti. Microsoft’un sistemi grubun en iyisiydi, ancak beyazlar için kelimelerin yüzde 15’ini yanlış tanımladı, bu oran Siyahlar için yüzde 27’ydi.

Şirket, AI sistemini eğitmek için çeşitli konuşma verileri topladı, ancak dilin ne kadar çeşitli olabileceğini anlamadı. Bu yüzden bir toplumdilbilim uzmanı tuttu Microsoft’un bilmesi gereken dil çeşitlerini açıklamak için Washington Üniversitesi’nden İnsanların resmi ve gayri resmi ortamlarda nasıl konuştukları demografik ve bölgesel çeşitliliğin ötesine geçti.

Bayan Crampton, “Birinin nasıl konuştuğunun belirleyici bir faktörü olarak ırkı düşünmek aslında biraz yanıltıcıdır” dedi. “Uzmanla istişare ederek öğrendiklerimiz, aslında çok çeşitli faktörlerin dil çeşitliliğini etkilediğidir.”

Bayan Crampton, konuşmadan metne olan bu eşitsizliği düzeltme yolculuğunun, şirketin yeni standartlarında ortaya konan kılavuzun bilgilendirilmesine yardımcı olduğunu söyledi.

“Bu, AI için kritik bir norm belirleme dönemidir” dedi ve Avrupa’nın yapay zeka kullanımına ilişkin kurallar ve sınırlar belirleyen düzenleme tekliflerine işaret etti. “Teknoloji şirketlerinin uyması gereken standartlar hakkında yapılması gereken parlak, gerekli tartışmaya katkıda bulunmak için standardımızı kullanabilmeyi umuyoruz.”

Yapay zekanın potansiyel zararları hakkında, teknoloji camiasında, insanların refahtan yararlanıp faydalanmayacağını belirleyen algoritmalar gibi, insanların yaşamları üzerinde gerçek sonuçları olan hatalar ve hatalar tarafından körüklenen, yıllardır süren hararetli bir tartışma sürüyor. Hollanda vergi makamları yanlışlıkla çocuk bakım yardımlarını muhtaç ailelerden aldı. kusurlu algoritma çifte vatandaşlığa sahip kişiler cezalandırıldı.

Yüzleri tanıma ve analiz etmeye yönelik otomatik yazılımlar özellikle tartışmalı olmuştur. Geçen yıl Facebook, fotoğraflardaki insanları tanımlamak için on yıllık sistemini kapattı. Şirketin yapay zekadan sorumlu başkan yardımcısı, “yüz tanıma teknolojisinin toplumdaki yeri ile ilgili birçok endişeyi” dile getirdi.

Birkaç Siyah adam, hatalı yüz tanıma eşleşmelerinden sonra haksız yere tutuklandı. Ve 2020’de, George Floyd’un Minneapolis’te polis tarafından öldürülmesinin ardından Black Lives Matter protestolarıyla aynı zamanda, Amazon ve Microsoft, Amerika Birleşik Devletleri’nde polis tarafından yüz tanıma ürünlerinin kullanımına ilişkin moratoryumlar yayınladı. daha net yasalar kullanımına ihtiyaç duyulmuştur.

O zamandan beri, Washington ve Massachusetts, diğer şeylerin yanı sıra, polisin yüz tanıma araçlarının kullanımı üzerinde yargı denetimi gerektiren düzenlemeleri kabul etti.

Bayan Crampton, Microsoft’un, yasalarla ilgili kanunları olan eyaletlerde yazılımını polise sunmaya başlamayı düşündüğünü, ancak şimdilik bunu yapmamaya karar verdiğini söyledi. Yasal manzara değiştikçe bunun değişebileceğini söyledi.

Arvind Narayanan, bir Princeton bilgisayar bilimi profesörü ve önde gelen yapay zeka uzmanışirketlerin yüzü analiz eden teknolojilerden geri adım atabileceklerini çünkü “şüpheli olabilecek ancak ille de kemiklerimizde hissetmediğimiz diğer çeşitli AI türlerinin aksine daha içgüdüsel” olduklarını söyledi.

Şirketler ayrıca, en azından şu an için bu sistemlerden bazılarının ticari olarak o kadar değerli olmadığını fark edebilirler, dedi. Microsoft, kurtulduğu yüz analizi özellikleri için kaç kullanıcıya sahip olduğunu söyleyemedi. Bay Narayanan, şirketlerin, insanları kendilerine göstermek için en iyi reklamları seçmeye yönlendiren hedefli reklamcılık gibi diğer istilacı teknolojileri terk etme olasılığının daha düşük olacağını tahmin etti, çünkü bunlar bir “nakit ineği”ydi.



Kaynak : https://www.nytimes.com/2022/06/21/technology/microsoft-facial-recognition.html

Yorum yapın