Rob Reich: AI geliştiricilerinin sorumlu davranış kurallarına ihtiyacı var


Transform 2022’yi 19 Temmuz’da ve neredeyse 20-28 Temmuz’da geri getirmekten heyecan duyuyoruz. Bilgili görüşmeler ve heyecan verici ağ oluşturma fırsatları için yapay zeka ve veri liderlerine katılın. Bugün kayıt Ol!


Rob Reich pek çok şapka takıyor: siyaset felsefecisi, Toplumda Etik McCoy Aile Merkezive müdür yardımcısı Stanford İnsan Merkezli Yapay Zeka Enstitüsü.

Son yıllarda Reich, yapay zekadaki (AI) devrim niteliğindeki teknolojik ilerlemelerin ortaya çıkardığı etik ve politik sorunları derinlemesine araştırdı. Çalışmaları, teknoloji uzmanlarının duyması her zaman kolay değildir. Kitabında, Sistem Hatası: Büyük Teknolojinin Nerede Yanlış Gittiği ve Nasıl Yeniden BaşlatabilirizReich ve ortak yazarları (bilgisayar bilimcisi Mehran Sahami ve sosyal bilimci Jeremy M. Weinstein), teknoloji şirketlerinin ve geliştiricilerin “optimizasyona” o kadar odaklandıklarını ve çoğu zaman insani değerleri çiğnediklerini savundular.

Daha yakın zamanlarda, Reich, AI topluluğunun sağlam profesyonel normlar geliştirmede çok geride olduğunu savunuyor. Bu, mahremiyet ve medeni haklardan zarar ve sömürüye karşı korunmaya kadar bir dizi demokratik değer için risk oluşturuyor.

hakkında konuştu toplum normlarının önemi de Yapay Zekadaki Önemli Gelişmeler Üzerine Bahar 2022 HAI Konferansı.

Bir röportajda, bu profesyonel davranış kurallarının nasıl görünebileceği ve kimlerin dahil olması gerektiği konusunda ayrıntılı bilgi verdi.

AI etiğinde olgunluk ihtiyacı

Yapay zeka ve bilgisayar biliminin genel olarak mesleki etiklerinde “olgunlaşmamış” olduğunu söylüyorsunuz. Ne demek istiyorsun?

Rob Reich: Yapay zeka bilimi, olağanüstü güçlerinin yeni farkına varan, ancak riskli davranışlarına rehberlik edebilecek ve daha geniş sosyal sorumluluklarını düşünmesine yol açabilecek tam gelişmiş bir ön korteksi olmayan geç dönem bir genç gibidir. Bilgisayar bilimi 50’li ve 60’lı yıllara kadar ortaya çıkmadı ve bilgisayar bilimi dereceleri olan insanlar ancak 2000’lerde sosyal olarak güçlü hale geldi. Tıp veya hukuk gibi daha eski alanlarla – hatta lisans gereklilikleri olan bahçeye dayalı mesleklerle – karşılaştırıldığında, bilgisayar biliminde mesleki etik için kurumsal normlar gelişimsel olarak olgunlaşmamıştır.

AI alanı ne tür etik ve normlardan yoksundur?

Reich: Farklı bir teknolojik sıçrama ile neler olduğunu bir düşünün – terapötikten tarıma kadar birçok alanda dönüştürücü fırsatlar yaratan gen düzenleme aracı CRISPR. Kimya alanında Nobel ödülünü paylaşan ortak mucitlerinden Jennifer Doudna, bir gece bir kabustan uyanıp kendi kendine şunu sormasının hikayesini anlattı: Hitler buna sahip olsaydı ne olurdu? Biyomedikal araştırmacılarının tekniğe bazı sınırlamalar getirmesi gerektiğine karar verdi ve biyomedikal araştırmacıları ile ilgili profesyonel derneklerini bir araya getirmeye yardımcı oldu. CRISPR’ın germ hattı düzenlemesi için (insan yumurtaları, sperm veya embriyolar üzerinde) kullanımına ilişkin bir moratoryum kabul ettiler.

Birkaç yıl sonra, bir araştırmacı insan embriyoları üzerinde CRISPR’ı gerçekten kullandığında, diğer bilim adamları tarafından hemen dışlandı ve her profesyonel toplantıya davet edildi. Hiçbir dergi onun makalelerini yayınlamaz. Aslında, Çin hükümeti sonunda onu hapse attı.

AI modeli, AI biliminin saygın uygulamasından kovulmalarına neden olan AI bilim adamlarından herhangi birini adlandırabilir misiniz? Tecrübelerime göre, neredeyse hiç kimse yapamaz. Yüz baskınıza bakan ve suç işleme olasılığınızı tahmin eden bir yapay zeka modeli geliştiren bir kişi hayal edin. Bu bana çarpıcı geliyor frenolojinin eşdeğeri ve ırk biliminin itibarsız pratiği. Ama şu anda, böyle bir çalışmanın profesyonel fırsatlar açısından bir kişiye hiçbir şeye mal olmayacağı kanısındayım.

AI, sağlık ve biyomedikal araştırmalarda etiğin ayak izine benzer hiçbir şeye sahip değildir. Her hastanenin bir etik kurulu vardır. Biyomedikal araştırma yapmak istiyorsanız, kurumsal bir inceleme kurulundan geçmelisiniz. Garajınızda yeni bir ilaçla uğraşırsanız, dışarı çıkıp bölgenizdeki insanlar üzerinde deneyemezsiniz – FDA’nın denemeleri onaylaması gerekir. Ancak bir AI modeliniz varsa, onu istediğiniz gibi eğitebilir, istediğiniz gibi dağıtabilir ve hatta modeli kullanmak için diğer potansiyel kötü aktörlerle açıkça paylaşabilirsiniz.

Bireysel şirketler, elbette, kurumsal davranış kuralları geliştirmiştir. Ancak kurumsal uygulamalar endüstri çapında uygulamalar veya tüm sorumlu araştırmacılar için profesyonel normlar haline gelmek için filtrelenmedikçe, nerede çalışırlarsa çalışsınlar, kurumsal etik standartlarının pek bir önemi yoktur. Kötü uygulamaların başka bir yerde olup olmadığını değiştirmezler ve bu nedenle toplum, bireysel bir şirkete yapıştırılan altın yıldız için daha iyi durumda değildir.

Bir AI etik kodu oluşturma

Bir etik kuralların veya bir yapay zeka haklar bildirgesinin altında yatan kıyaslama ilkeleri nelerdir?

Reich: Sağlık ve biyomedikal araştırmalardan alınan bazı normlar bir başlangıç ​​noktası sağlar, ancak bu tür normların tıptan yapay zekaya toptan ihraç edilebileceğine inanmıyorum.

Örneğin, Hipokrat Yemini’ni alın – önce zarar vermeyin. AI’da, araştırmacılar ve geliştiriciler, herhangi bir modeli piyasaya sürmeden veya dağıtmadan önce, algoritmik modellerin marjinal gruplar üzerinde olumsuz etkileri olabilecek yolları anlamak için güçlü normlara sahip olabilir.

İnsan hakları doktrinlerinden yararlanarak, kişisel verilerin açık internetten rıza alınmadan alınmasına ilişkin yaygın uygulamayı sınırlayan mahremiyet haklarına ilişkin normlara sahip olabilirler.

Yüz tanıma araçlarının halka nasıl yerleştirileceğine uygun sınırlar koyan normlar geliştirebilirler. Biyometride, bir drone, bir polis kamerası veya cep telefonu olan bir adam tarafından taşınıyor olsun, gözetlemeyle ilgili bazı temel insan ilgilerine işaret edebilirsiniz.

Bir etik kod için gerçek bir çekiş yaratmak için eyleme geçirilebilir bazı fikirler nelerdir?

Reich: Birincisi, tıpkı CRISPR’de olduğu gibi, en önde gelen AI bilim adamlarının profesyonel etik ve daha geniş bir sorumlu AI kodu lehine konuşmaları önemlidir. Yüksek statülü AI bilim adamları, sorumlu AI’nın geliştirilmesi için gereklidir.

İkincisi, bireylerin eylemlerinin ötesinde kurumsal olarak daha sağlam bir yaklaşıma ihtiyacımız var. Sorumlu yapay zeka, yalnızca profesyonel normlar aracılığıyla bir iç düzenleme değil, algoritmik denetim kurumları ve şirketleri sorumlu tutabilecek uygun sivil toplum kuruluşları aracılığıyla dış düzenleme meselesidir. Çalışması Algoritmik Adalet Birliği ikincisinin örnek bir örneğidir.

Yeni ajanslar yaratmamız veya icat etmemiz gerekmez. Örneğin, Eşit İstihdam Fırsatı Komisyonumuz zaten var. Henüz yapmıyorlarsa, bu yapay zeka destekli işe alım araçlarının ve özgeçmiş tarama sistemlerinin bazılarının nasıl çalıştığına bakıyor olmalılar.

İnsan denekleri içeren araştırmaları denetleyen bazı analogdan kurumsal inceleme kurullarına da sahip olabiliriz. Birisi web’den görüntüleri kazımaya karar verdiğinde suç eğilimlerini belirlemek fotoğraflara ve yüz izlerine dayanarak, kurumsal bir inceleme kurulundan geçselerdi ne olurdu diye soruyorum kendime. Belki hayır derdi. Ancak bir AI bilimcisiyseniz, genellikle kurumsal bir inceleme kuruluyla uğraşmak zorunda değilsiniz. Sadece git ve yap.

Yine, kurumsal normların AI’nın gücüne yetişmesi gereken yer burasıdır.

Çekler ve bakiyeler ekleme

Geliştiricilerin potansiyel önyargılar veya diğer tehlikeler için bir denetim yapması gerekli midir?

Reich: Tabii ki. Herhangi bir önemli bina projesinin bir çevresel etki araştırmasına sahip olması gerekir. Nesli tükenmekte olan bir türü tehdit edecek şekilde bir toprak parçası geliştireceğiniz ortaya çıkarsa, geliştiricilerin devam etmeden önce en azından azaltma stratejilerini benimsemeleri gerekir. Benzer şekilde, algoritmik etki ifadelerini hayal edebilirsiniz. Uygulamaya geçmeden önce minimum önyargı riski olduğunu göstermeniz gerekir. Bunun kullanımı gibi teknik yaklaşımlar da vardır. model kartları ve veri kümeleri için veri sayfaları.

Ayrıca algoritmik denetim kurumlarına yerleştirilen yetenekleri önemli ölçüde geliştirmemiz gerekiyor. Umudum, teknik kariyer yollarının yeni başlayanların ve büyük teknoloji şirketlerinin ötesine geçmesidir. Kamu yararı kanununu düşünün. Adalet Bakanlığı’nda düşük ücretli bir iş bulmak, şirketler hukuku işinde çalışmaktan neden daha rekabetçi? En azından kısmen kamu yararı için bir şeyler yapma fırsatından dolayı.

Öngördüğünüz türde profesyonel veya topluluk normlarını oluşturmak için ne gerekir?

Reich: Ne yazık ki, Nazi dönemindeki tıbbi deneyler ya da Siyah erkekler üzerinde yapılan Tuskegee deneyleri gibi skandalların ya politika yapıcılardan ya da meslekten önemli bir tepki almasına neden oluyor.

Ancak bunun reaktif bir süreç olması gerekmez. Yapay zeka biliminin proaktif bir yaklaşım benimsemesini tercih ederim.

Bir örnek bir son blog yazısı üyelerinden Temel Modelleri Araştırma Merkezi vakıf modellerinin sorumlu bir şekilde serbest bırakılması hakkında normlar oluşturacak bir inceleme kurulu oluşturulması çağrısında bulundu.

Başka bir örnek bir pilot proje burada, hibe fonu arayan herhangi bir proje için bir Etik ve Toplum İncelemesi gerektiren Stanford HAI’de. İnceleme paneli, antropoloji, tarih, tıp, felsefe ve diğer alanlardan disiplinler arası uzmanlardan oluşan bir ekipten oluşur. Daha geçen Aralık ayında, ekip üyeleri yılında bir makale yayınladı Ulusal Bilimler Akademisi Bildiriler Kitabı Bu, bulguları ve ESR’nin endüstrideki ve akademik çevredeki diğer araştırma alanlarına nasıl uygulanabileceğini detaylandırıyor.

Bilimsel keşif ve teknolojik yeniliklerin, mantıklı düzenleyici yönergeler oluşturma konusundaki kolektif kapasitemizin önüne geçmesi, tarih boyunca tanıdık bir kalıptır. İçinde Sistem hatasıbiz buna bozulma ve demokrasi arasındaki yarış. Yapay zeka ile inovasyonun hızı hızlandı ve inovasyonun sınırı, kamu politikası çerçevelerimizin çok ötesinde. Bu, yapay zekada yeni teknolojilerin geliştirilmesi ve uygulanmasının sosyal sorumlulukla takip edilmesi için profesyonel normlara ve davranış kurallarına dayanmayı her zamankinden daha önemli hale getiriyor.

Edmund L. Andrews, Stanford İnsan Merkezli Yapay Zeka Enstitüsü’ne katkıda bulunan bir yazardır..

Rob Reich Stanford Beşeri Bilimler ve Bilimler Okulu’nda siyaset bilimi profesörü ve Eğitim’in izniyle profesördür. Aynı zamanda Freeman Spogli Uluslararası Çalışmalar Enstitüsü’nün nezaketen kıdemli bir üyesi ve Stanford İnsan Merkezli Yapay Zeka Enstitüsü’nün müdür yardımcısıdır.

Bu hikaye başlangıçta ortaya çıktı Hai.stanford.edu. Telif Hakkı 2022

DataDecisionMakers

VentureBeat topluluğuna hoş geldiniz!

DataDecisionMakers, veri işi yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.

En yeni fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ve veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’da bize katılın.

Kendi makalenize katkıda bulunmayı bile düşünebilirsiniz!

DataDecisionMakers’dan Daha Fazlasını Okuyun



Kaynak : https://venturebeat.com/2022/07/11/rob-reich-ai-developers-need-a-code-of-responsible-conduct/

Yorum yapın