Sorumlu yapay zeka oluşturmak: Etik bir gelecek için 5 sütun


Transform 2022’yi 19 Temmuz’da ve neredeyse 20 – 28 Temmuz’da geri getirmekten heyecan duyuyoruz. İçgörülü görüşmeler ve heyecan verici ağ oluşturma fırsatları için yapay zeka ve veri liderlerine katılın. Bugün kayıt Ol!


Teknolojik ilerleme olduğu sürece, etkileri konusunda endişeler olmuştur. Manhattan Projesi ne zaman bilim adamları rolleriyle boğuştu Böylesine yenilikçi, ancak yıkıcı nükleer enerjiyi serbest bırakmak en önemli örnektir. Lord Solomon “Solly” Zuckerman, 2. Dünya Savaşı sırasında Müttefiklerin bilimsel danışmanıydı ve daha sonra önde gelen bir nükleer silahların yayılmasını önleme savunucusuydu. 1960’larda, bugün hala geçerli olan ileri görüşlü bir içgörüyle alıntılanmıştır: “Bilim, geleceğin ne olacağını bilmeden geleceği yaratır.”

Artık tipik olarak insan zekası gerektiren karmaşık görevleri gerçekleştirmek için tasarlanmış herhangi bir makine öğrenimi (ML) yazılımı için her şeyi kapsayan bir terim olan yapay zeka (AI), gelecekteki toplumumuzda çok büyük bir rol oynamaya mahkumdur. Son zamanlardaki yaygınlaşması, ilgide bir patlamaya ve AI’nın nasıl geliştirildiğine ve geliştirmeyi kimin yaptığına ilişkin incelemelerin artmasına neden oldu ve önyargının tasarımı ve işlevi nasıl etkilediğine ışık tuttu. AB planlıyor yeni mevzuat AI’nın getirebileceği potansiyel zararları azaltmayı amaçlayan ve sorumlu AI’nın yasalarca zorunlu tutulması gerekecektir.

Bu tür korkuluklara neden ihtiyaç duyulduğunu anlamak kolaydır. İnsanlar yapay zeka sistemleri inşa ediyor, bu yüzden çoğu zaman daha da kötüsü için kaçınılmaz olarak kendi etik görüşlerini tasarıma getiriyorlar. Bazı rahatsız edici örnekler zaten ortaya çıktı – bunun için algoritma elma kartı ve işe alım Amazon her biri cinsiyet yanlılığı açısından araştırıldı ve Google [subscription required] ırkçı etiketlemeden sonra fotoğraf hizmetini yeniden düzenlemek zorunda kaldı. O zamandan beri her şirket sorunları düzeltti, ancak teknoloji hızla ilerliyor ve riskleri hesaba katmadan üstün teknoloji geliştirmenin gözleri bağlı bir şekilde koşmaya benzediği dersinin altını çiziyor.

Sorumlu yapay zeka oluşturmak

Intel’in baş veri bilimcisi Melvin Greer, VentureBeat’te şunları belirtti: “…sorumlu yapay zeka alanındaki uzmanlar gerçekten yapay zeka yanlılığının risklerini başarılı bir şekilde yönetmeye odaklanmak istiyor, böylece yalnızca bir şey yapan bir sistem yaratmıyoruz. iddia etti, ancak toplumsal normları ve ahlakı tanıyan daha geniş bir perspektif bağlamında bir şeyler yapmak. ”

Başka bir deyişle, yapay zeka sistemlerini tasarlayanlar, seçimlerinden sorumlu olmalı ve iş yazılımı uygulamaya geldiğinde esasen “doğru olanı yapmalıdır”.

Şirketiniz veya ekibiniz bir yapay zeka sistemi oluşturmaya veya dahil etmeye hazırlanıyorsa, temelinizi oluşturması gereken beş sütun aşağıda belirtilmiştir:

1. Sorumluluk

İnsanların başlangıçtan itibaren AI tasarımına dahil olacağını düşünürdünüz, ancak ne yazık ki durum her zaman böyle değil. Mühendisler ve geliştiriciler kodun içinde kolayca kaybolabilirler. Ancak insanlar bu döngüye dahil edildiğinde ortaya çıkan büyük soru genellikle “Karar vermeye başlamak için ML sistemine ne kadar güveniyorsunuz?”

Bu önemin en bariz örneği, insan sürücü için doğru kararın ne olması gerektiğini “bilmek” için araca “güvendiğimiz” sürücüsüz arabalardır. Ancak, ödünç verme kararları gibi diğer senaryolarda bile, tasarımcıların ML modeliyle hangi adalet ve yanlılık ölçütlerinin ilişkili olduğunu düşünmesi gerekir. Uygulamak için akıllıca bir en iyi uygulama, bu politika kararlarını denetlemeye yardımcı olmak ve modern toplumsal standartlara ayak uydurduğunuzdan emin olmak için denetimleri ve incelemeleri teşvik etmek için devam eden bir AI etik komitesi oluşturmak olacaktır.

2. Tekrarlanabilirlik

Çoğu kuruluş, bir dizi kaynaktan (veri ambarları, bulut depolama sağlayıcıları vb.) gelen verileri kullanır, ancak bu veriler tek tip değilse (1:1 anlamına gelir), toplamaya çalışırken yolda sorunlara yol açabilir. sorunları çözmek veya işlevleri güncellemek için içgörüler. AI sistemleri geliştiren şirketlerin, kapsamlı veri ve model katalogları oluşturmak için ML işlem hatlarını standart hale getirmesi önemlidir. Bu, test ve doğrulamayı kolaylaştırmanın yanı sıra doğru gösterge tabloları ve görselleştirmeler üretme yeteneğini geliştirmeye yardımcı olacaktır.

3. Şeffaflık

Çoğu şeyde olduğu gibi, şeffaflık en iyi politikadır. ML modelleri söz konusu olduğunda, şeffaflık yorumlanabilirliğe eşittir (yani, ML modelinin açıklanabilmesini sağlamak). Bu, özellikle istenmeyen önyargılara karşı adaleti sağlamak için bu belirli modelleri neden oluşturduğunuzu müşterilere açıklamanız ve haklı çıkarmanız gereken bankacılık ve sağlık gibi sektörlerde önemlidir. Yani, bir mühendis müşterinin yararına belirli bir makine öğrenimi özelliğinin neden var olduğunu doğrulayamıyorsa, orada olmamalıdır. İzleme ve ölçümlerin büyük bir rol oynadığı yer burasıdır ve yapay zeka sisteminin uzun vadeli etkinliğini sağlamak için istatistiksel performansa göz kulak olmak çok önemlidir.

4. Güvenlik

Yapay zeka söz konusu olduğunda, güvenlik daha çok bir şirketin makine öğrenimi modelini nasıl koruması gerektiğiyle ilgilenir ve genellikle şifreli bilgi işlem ve çekişmeli test gibi teknolojileri içerir – çünkü bir yapay zeka sistemi saldırıya açıksa sorumlu olamaz. Şu gerçek hayat senaryosunu düşünün: Dur işaretlerini algılamak için tasarlanmış bir bilgisayarlı görü modeli vardı, ancak birisi dur işaretine küçük bir çıkartma koyduğunda (insan gözüyle bile ayırt edilemiyor) sistem aldandı. Bunun gibi örneklerin büyük güvenlik etkileri olabilir, bu nedenle bu tür kusurları önlemek için güvenlik konusunda sürekli tetikte olmalısınız.

5. Gizlilik

Bu son sütun her zaman önemli bir konudur, özellikle de pek çok müşteri verilerini içeren devam eden Facebook skandalları. AI çok büyük miktarda veri toplar ve ne için kullanıldığına dair çok net yönergeler olması gerekir. (Düşünmek Avrupa’da GDPR.) Devlet düzenlemeleri bir yana, yapay zeka tasarlayan her şirketin mahremiyeti çok önemli bir konu haline getirmesi ve bireysel kayıtları saklamamak için verilerini genelleştirmesi gerekir. Bu, özellikle sağlık hizmetlerinde veya hassas hasta verilerinin bulunduğu herhangi bir sektörde önemlidir. Daha fazla bilgi için, aşağıdaki gibi teknolojilere göz atın birleşik öğrenme ve diferansiyel gizlilik.

Sorumlu AI: Önümüzdeki yol

Bu beş sütunu hesaba kattıktan sonra bile, AI’daki sorumluluk, bir köstebek vurma durumu gibi hissedilebilir – tam teknolojinin etik olarak çalıştığını düşündüğünüzde, başka bir nüans ortaya çıkıyor. Bu, dünyaya heyecan verici yeni bir teknolojiyi aşılama sürecinin sadece bir parçası ve internete benzer şekilde, muhtemelen tartışmayı, kurcalamayı ve AI’nın işlevselliğini geliştirmeyi asla bırakmayacağız.

Yine de hata yapmayın; AI’nın etkileri çok büyüktür ve birden fazla endüstri üzerinde kalıcı bir etkiye sahip olacaktır. Şimdiden hazırlanmaya başlamanın iyi bir yolu, kuruluşunuz içinde çeşitliliğe sahip bir ekip oluşturmaya odaklanmaktır. Farklı ırklardan, cinsiyetlerden, geçmişlerden ve kültürlerden insanları bir araya getirmek, daha teknolojiye bakmadan önce önyargı şansınızı azaltacaktır. Sürece daha fazla insanı dahil ederek ve sürekli izleme uygulayarak yapay zekanın daha verimli, etik ve sorumlu olmasını sağlayacağız.

Dattaraj Rao, şirketinde baş veri bilimcisidir. Israrcı.

DataDecisionMakers

VentureBeat topluluğuna hoş geldiniz!

DataDecisionMakers, veri işi yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.

En yeni fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ve veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’da bize katılın.

Kendi makalenize katkıda bulunmayı bile düşünebilirsiniz!

DataDecisionMakers’dan Daha Fazlasını Okuyun



Kaynak : https://venturebeat.com/2022/07/01/building-responsible-ai-5-pillars-for-an-ethical-future/

Yorum yapın