Noua coalitie solicita sa puna capat cercetarilor AI „rasiste” care pretind ca se potrivesc fetelor cu comportamentul criminal

„Criminalitatea nu poate fi prezisa. Punct. mere et fille porno

Foto: NurPhoto / Getty Images

Peste 500 de experti in inteligenta artificiala, tehnologie si sociologie au semnat o scrisoare adresata unui editor academic important, prin care cerea sa opreasca publicarea oricarei cercetari care utilizeaza invatarea automata pentru a prezice daca cineva ar putea savarse o crima.

Scrisoarea a fost scrisa ca raspuns la un comunicat de presa din 5 mai de la Universitatea Harrisburg din Pennsylvania, in care se preciza ca doi profesori si un doctorand au creat un software care ar putea prezice daca cineva ar putea sa comita o infractiune bazandu-se doar pe o imagine a lor fata. porno animal gratuit Editorul, Springer Nature, ar trebui sa includa acea lucrare intr-o viitoare serie de carti.

Comunicatul de presa al lui Harrisburg sustinea ca noul software este 80% precis si complet impartial, ceea ce inseamna ca se presupune ca nu contine nicio predispozitie statistica pentru a prezice ca cineva ar fi mai probabil sa fie un infractor bazat pe rasa sau genul sau. porno sado De asemenea, a lansat software-ul ca instrument pentru aplicarea legii.

Universitatea, care nu a raspuns imediat la o cerere de comentarii, si-a dat jos comunicatul de presa pe 6 mai si a spus ca va publica o actualizare dupa publicarea cercetarii. jennifer aniston porno Springer Nature a declarat organizatorilor luni ca lucrarea a fost in cele din urma respinsa in timpul procesului de revizuire.

Dar expertii care doresc sa opreasca aceasta cercetare, care si-au numit grupul Coalitia pentru tehnologie critica, spun ca obiectivul ziarului de a prezice criminalitatea a fost doar cel mai recent dintr-o serie de eforturi nestiintifice similare care continua sa fie spalate prin mediul academic principal. porno congo In timp ce stiinta din spatele acestor studii a fost dezmintita, lucrarile care incearca sa stabileasca o corelatie intre fata cuiva si comportamentul lor continua sa fie publicate.

Scopul mai larg al coalitiei este de a trimite un mesaj catre editori ca insasi ideea de a folosi invatarea automata pentru a prezice criminalitatea nu este solida din punct de vedere stiintific si nu ar trebui sa fie revizuita sau publicata in viitor. porno yaoi

„Femeile negre, carturarii si practicienii negri au condus critica acestei lucrari in ultimii 50 de ani”, spune Theodora Dryer, cercetator la NYU care a ajutat la organizarea scrisorii, pentru OneZero . „Au aratat de nenumarate ori ca predictia criminalitatii este intrinsec rasista si reproductiva a structurilor de putere care ii exclud”. large porno

Mai mult de jumatate din textul scrisorii consta in note de subsol si citate, un mesaj de la semnatarii sai ca exista decenii de precedente stiintifice care submineaza insasi intrebarea daca criminalitatea poate fi discernuta de atributele fizice ale unei persoane.

In timp ce, mai recent, munca de a arata modul in care recunoasterea faciala moderna este partinitoare a fost initiata de femei de culoare, inclusiv Joy Buolamwini, Timnit Gebru si Deborah Raji (care au semnat cu totii scrisoarea), Dryer a facut referire la o discutie din 1975 a lui Toni Morrison in care autorul a abordat armarea datelor impotriva oamenilor de culoare. porno seniors

„Studiile menite sa confirme vechile prejudecati si sa creeze altele noi sunt cu adevarat in crestere. Dintre numeroasele domenii de ignoranta, cele referitoare la oamenii negri si relatia lor cu aceasta tara sunt, cel putin pentru mine, cel mai socant ”, a spus atunci Morrison. sextape porno

O parte din motivul pentru care tehnologii si sociologii sunt de acord ca orice algoritm menit sa prezica probabilitatea unei persoane de a comite o infractiune va fi rasista este ca datele provin dintr-un sistem de justitie penala deja rasist si un set de legi.

Legile care vizeaza persoanele de culoare si departamentele de politie care suprapolitizeaza populatiile minoritare creeaza date, cum ar fi statisticile privind criminalitatea sau focurile de arma, care sunt apoi utilizate pentru a construi algoritmi care se bazeaza pe aceste date. porno gay vieux



  • alpha france porno
  • casting porno français
  • porno perfecte
  • porno ub
  • ecoliere porno
  • porno 69
  • les plus belles actrices porno
  • liza monet porno
  • porno party
  • porno alpha
  • porno gros plan
  • plan a 3 porno
  • koh lanta porno
  • perfect girl porno
  • aphrodite porno
  • film porno maroc
  • porno ado
  • porno a la ferme
  • pokemon porno
  • feet porno




„Criminalitatea nu poate fi prezisa. Punct. ariana grande porno Criminalitatea este un construct social si nu ceva din lume pe care il putem masura empiric sau surprinde vizual sau altfel ”, a declarat Sonja Solomun, director de cercetare la Centrul pentru Media, Tehnologie si Democratie al Universitatii McGill si organizator de scrisori.

Cercetari similare au fost in mare parte ridiculizate ca o mutatie a frenologiei din secolul al XXI-lea, o credinta dezamagita din secolul al XIX-lea ca forma capului unei persoane poate oferi o perspectiva asupra caracterului lor. porno fornite

In 2016, cercetatorii de la Universitatea Shanghai Jiao Tong au publicat o lucrare care sustinea ca algoritmul lor ar putea prezice cine va deveni un criminal analizandu-si fata, fara partinire. Au lansat cateva imagini cu „criminali” si „non-criminali”. porno teen La scurt timp dupa publicare, cercetatorii Google si Princeton au respins temeinic obiectivele lucrarii. Au observat ca „non-infractorii” purtau toti camasi cu guler vizibile, in timp ce toate imaginile „criminale” purtau fie tricouri, fie haine mai intunecate. mannequin porno Un algoritm de invatare automata nu are niciun concept despre nimic in afara exemplelor date si daca exista camasi albe in imaginile „non-criminali” si nu in imaginile „criminalilor”, acesta va echivala cu purtarea unei camasi albe cu nu fiind infractor.

O alta lucrare din 2018 a incercat sa spuna ca sexualitatea ar putea fi perceputa printr-un algoritm de recunoastere faciala. ados porno Cercetatorul de la Stanford, Michal Kosinski, a construit un algoritm care a incercat sa determine daca o persoana era homosexuala sau dreapta. „Cand am citit rezumatele revoltate pentru prima data, m-am simtit revoltat”, a declarat Jeremy Howard, fondatorul start-up-ului educational AI Fast. porno star wars ai, pentru Quartz . „Si apoi m-am gandit ca ar trebui sa citesc ziarul, asa ca apoi am inceput sa citesc ziarul si am ramas revoltat. shanna kress porno

Aceiasi cercetatori Google si Princeton care au dezmembrat documentul de criminalitate de mai sus au criticat si activitatea lui Kosinski.

„La fel ca computerele sau motorul cu ardere interna, AI este o tehnologie de uz general care poate fi utilizata pentru a automatiza o multime de sarcini, inclusiv cele care nu ar trebui intreprinse in primul rand”, au scris ei. porno congolais

Organizatorii Coalitiei pentru Tehnologie Critica spun ca intrebarile adresate cu privire la acest tip de cercetare sunt mai putin legate de datele pe care le foloseste sau de algoritmii pe care cercetatorii i-au construit, ci de structurile de putere pe care cercetarea le consolideaza.

„Cum ar putea publicarea acestei lucrari si adoptarea potentiala a acesteia sa legitimeze, sa stimuleze, sa genereze bani sau sa permita rezultate discriminatorii si prejudicii din lumea reala?” au scris organizatorii. sun porno „Aceste intrebari nu sunt abstracte.”