AI, suçu tahmin edemez. Ancak araştırmacılar denemekten vazgeçmeyecek.



Yorum

2002 filmi “Azınlık Raporu”nun dünyasında suç neredeyse yok gibi. Basiretçiler, cinayetlerin ne zaman gerçekleşeceğini tahmin ederek, polisin yakında suçluları tutuklamasına ve tutuklamasına izin verir.

Tom Cruise’un her şeye gücü yeten polis gücü, distopik bir toplumun kanıtı olsa da, araştırmacılar, suçu gerçekleşmeden önce tahmin edebilmek için uzun süredir umut verici bir umudun peşine düştüler.

Ve Amerika Birleşik Devletleri karşı karşıya kalırken yükselen oranlar Şiddet içeren suçlarla ilgili başka bir araştırma projesi ortaya çıktı: Chicago Üniversitesi’nden bir grup bilim insanı geçen ay bir algoritma ortaya çıkardılar. bir haber bülteninde suçları “%90 doğrulukla” tahmin etme yeteneğinden kaynaklanmaktadır.

Algoritma, büyük şehirlerde, cinayet ve hırsızlık gibi suç olasılığının yüksek olduğunu hesapladığı konumları önümüzdeki hafta tespit ediyor. Yazılım ayrıca Chicago, Los Angeles ve Philadelphia dahil olmak üzere Amerika Birleşik Devletleri’ndeki sekiz büyük şehirde polisliğin mahalleler arasında nasıl değiştiğini değerlendirebilir.

Ancak yasa uygulayıcıları yönlendirmek için yapay zeka kullanmak, uzun bir geçmişe atıfta bulunan birçok sosyal adalet bilimcisi ve kriminolog için alarm zillerini çalıyor. böyle bir teknolojinin haksız yere Siyah ve Latin insanlara yönelik artan polislik önermesi. Çalışmanın yazarlarından biri bile, bir algoritmanın suçu tahmin etme yeteneğinin sınırlı olduğunu kabul ediyor.

Chicago Üniversitesi’nden profesör ve algoritmanın baş araştırmacısı Ishanu Chattopadhyay, “Geçmiş size gelecek hakkında hiçbir şey söylemiyor” dedi. “Soru şudur: Geçmiş, geleceği gerçekte ne ölçüde etkiler? Ve olaylar ne dereceye kadar kendiliğinden mi yoksa gerçekten rastgele mi? … Öngörme yeteneğimiz bununla sınırlı.”

Şirketin yapay zekasının hayat bulduğunu düşünen Google mühendisi

Polis, suçu tahmin etmek için uzun süredir mevcut olan herhangi bir aracı kullandı. Teknolojik ilerlemelerden önce, polisler konferans salonlarında toplanır ve kümelerin bir sonraki nereye bakmaları gerektiğini anlamalarına yardımcı olacağını umarak suç olaylarını bir haritaya koyarlardı.

Son 15 yılda, New York, Los Angeles ve Chicago gibi ülkenin en büyük polis teşkilatları, yapay zekayı sadece suçu analiz etmek için değil, aynı zamanda tahmin etmek için kullanmanın yollarını düşünmeye başladı. Genellikle, kolluk kuvvetlerinin suçu tahmin etmek için kullanabileceği yazılımlar oluşturan PredPol ve Palantir gibi veri analizi şirketlerine yöneldiler.

Tahmine dayalı polislik araçları, suç raporları, tutuklama kayıtları ve plaka görüntüleri gibi verileri, gelecekte belirli bir suç türünün nerede ve ne zaman gerçekleşeceğini tahmin etmek için kalıpları aramak üzere eğitilmiş bir algoritmaya besleyerek oluşturulur.

New York Üniversitesi Irk, Eşitsizlik ve Hukuk Merkezi’nin eş öğretim üyesi Vincent Southerland, algoritmaların yalnızca beslendikleri veriler kadar iyi olduğunu ve bunun özellikle Amerika Birleşik Devletleri’ndeki insanlar için bir sorun olduğunu söyledi.

Southerland’e göre, tarihsel olarak, Amerika Birleşik Devletleri’ndeki polis verileri taraflıdır. Polislerin, beyaz olmayanların hakim olduğu düşük gelirli mahallelerde birisini bir suçla tutuklama veya suçlama olasılığı daha yüksektir; bu, suçun nerede gerçekleştiğini değil, polislerin zamanlarını nerede harcadıklarını yansıtması gereken bir gerçektir.

Bu, çoğu suç faaliyeti veri setinin, renkli ve düşük gelirli mahallelerdeki insanları aşırı temsil ettiği anlamına gelir. Southerland, bu verileri bir algoritmaya beslemenin, bu alanlarda daha fazla suç faaliyeti olduğunu önermesine yol açarak, ırksal ve sosyoekonomik olarak önyargılı bir geri bildirim döngüsü oluşturduğunu ekledi.

“Bazı önyargılardan etkilenmiş veya bu önyargılarla lekelenmiş verileriniz var – ve bu önyargı analizin diğer tarafında ortaya çıkacak” dedi. “İçine ne koyarsan ondan çıkarsın.”

Palantir içindeki savaş: Veri madenciliği firmasının çalışanların saldırısı altında ICE ile olan bağları

Gerçek dünyada, tahmine dayalı polislik yazılımı önemli sorunlara neden olmuştur.

2019 yılında Los Angeles Polis Departmanı askıya alınmış Suçlu noktaları tahmin etmek için tarihsel suç verilerini kullanan suç tahmin programı LASER ve insanlara cezai risk puanları atamak için Palantir yazılımı, bir iç denetimin polisin Siyahi ve Latin insanları haksız yere daha fazla gözetim altına almasına yol açtığını göstermesinin ardından.

Chicago’da polis, şiddet içeren bir suça karışması en muhtemel kişilerin bir listesini oluşturmak için Illinois Teknoloji Enstitüsü’nün öngörücü polislik yazılımını kullandı. RAND’dan bir çalışma ve daha sonra RAND’dan bir araştırma Chicago Sun-Times yazılımın, 2013’ten bu yana Chicago’da tutuklanan veya parmak izi alınan her bir kişiyi listeye dahil ettiğini gösterdi. Program 2020’de rafa kaldırıldı.

RAND’da kıdemli operasyon araştırmacısı olan ve Chicago polis departmanının tahmine dayalı algoritmaları kullanmasını denetlemeye yardımcı olan John S. Hollywood, tahmine dayalı polislik algoritmalarının “kristal bir küre olmadığını” söyledi. “Daha bütünsel olarak bakmak daha iyi… toplumumda şu anda suçlara yol açan belirli şeyler açısından neler oluyor.”

Chattopadhyay, ekibinin yazılımının, algoritmaların sorunlu geçmişini bilerek yapıldığını söyledi.

Algoritmayı yaparken Chattopadhyay’in ekibi büyük şehirleri 1.000 metrekarelik şehir bloklarına ayırdı ve onu eğitmek için son üç ila beş yıldaki şehir suç verilerini kullandı. Algoritma, bir hafta sonrasına kadar belirli bir zamanda bir segmentte yüksek veya düşük suç riski olup olmadığını tükürür.

Önyargıyı sınırlamak için ekip, marihuana tutuklamaları, trafik durmaları veya düşük seviyeli küçük suçlar gibi suç verilerini atladı, çünkü araştırmalar Siyah ve Latin insanların bu tür suçlar için daha sık hedef alındığını gösteriyor. Bunun yerine, algoritmaya cinayetler, saldırılar ve piller ile hırsızlık ve motorlu araç hırsızlığı gibi mülkiyet suçlarıyla ilgili verileri verdiler.

Ancak çalışmanın ana noktasının, polisin nasıl önyargılı olduğunu sorgulamak için algoritmayı kullanmak olduğunu söyledi. Ekibi, değişen sosyoekonomik düzeylerdeki mahallelerden gelen tutuklama verilerini karşılaştırdı. Daha zengin bölgelerde meydana gelen suçun daha fazla tutuklamaya yol açtığını, daha fakir mahallelerde ise suçun her zaman aynı etkiye sahip olmadığını ve uygulamada bir tutarsızlık gösterdiğini buldular.

Chattopadhyay, bu sonuçların, şiddet veya mülkiyet suçlarında bir artış olduğunda kolluk kuvvetlerinin daha fakir mahalleleri görmezden geldiğinden şikayet eden insanlara kanıt sağlamaya yardımcı olduğunu söyledi. “Bu, bunu ölçmenize izin veriyor” dedi. “Kanıtları göstermek için.”

Princeton Üniversitesi’nde bilgisayar bilimi profesörü olan Arvind Narayanan, çalışmanın haber bülteninin ve bununla ilgili haber makalelerinin, çalışmanın polis suçlarının uygulanmasındaki önyargıları araştırma girişimine yeterince odaklanmadığını ve algoritmaların doğruluk iddialarını aşırı vurguladığını söyledi.

“Tahmin edici polislik için tek bir doğruluk rakamı, bir aracın yararlı mı yoksa adil mi olduğunu değerlendirmek için tamamen yetersiz” dedi. “Suç nadirdir, bu nedenle suç tahminlerinin çoğunun yanlış pozitif olması muhtemeldir.”

Polis sistemlerimizde ırksal önyargı var. İşte kanıt.

Ceza adaleti uzmanları, polis uzmanları ve teknoloji uzmanları, bir algoritma doğru olsa bile, kanun uygulayıcılar tarafından haksız gözetim ve izleme için beyaz olmayan insanları ve daha yoksul mahallelerde yaşayanları hedef almak için yine de kullanılabileceğini belirtiyor.

Northwestern Üniversitesi’nde sosyoloji profesörü olan Andrew Papachristos, kolluk kuvvetlerinin suçu haritalamak ve analiz etmek için algoritmalar kullandığında, genellikle beyaz olmayan ve düşük gelirli toplulukları daha fazla polisliğe maruz bıraktığını söyledi. Bazı mahallelerde aşırı polislik yapmakla eleştirildiklerinde, genellikle taktikleri haklı çıkarmak için verileri kullanıyorlar.

Papachristos, topluluk grupları araçları nerede daha fazla sosyal hizmet sunacaklarını bulmak, topluluk katılımını artırmak ve şiddetin temel sosyal nedenleriyle başa çıkmak için kullanabilirlerse, teknolojinin daha iyi bir şekilde kullanılacağını söyledi. Bununla birlikte, bunun gerçekleşmesinin pek olası olmadığını, çünkü bu işi yapan kuruluşların nakit sıkıntısı çekmediğini ve veri kullanmaya şüpheyle yaklaştığını söyledi.

“Mahkemede kendilerine karşı kötüye kullanılan verileri gördüler. Bireyleri profillemek için kullandıklarını gördüler” dedi. “Yani, biri benim gibi gelip ‘Hey, verileri kullanmanıza yardımcı olmak istiyoruz’ derse. ‘Aman Tanrım, teşekkür ederim’ gibi hemen bir şey değil. ‘Hangi verileri kullanıyorsunuz?’ ”

RAND Corporation’dan Hollywood kabul etti. Suçu gerçekten azaltmak için polis departmanlarının eğitim, barınma ve sivil katılım konularını ele almak için sosyal hizmet uzmanları ve topluluk gruplarıyla birlikte çalışması gerektiğini söyledi.

“[Algorithms] parlak, parlak bir nesnedir” dedi. “Bu şeyler dikkat dağıtıcı olma eğilimindedir.”



Kaynak : https://www.washingtonpost.com/technology/2022/07/15/predictive-policing-algorithms-fail/?utm_source=rss&utm_medium=referral&utm_campaign=wp_business-technology

Yorum yapın