Forțele de securitate din Argentina au anunțat planuri de utilizare a inteligenței artificiale pentru a „prezice infracțiunile viitoare”, o măsură care a stârnit îngrijorări în rândul experților referitor la posibilele amenințări la adresa drepturilor cetățenilor.
Președintele de extremă-dreapta, Javier Milei, a creat Unitatea de Inteligență Artificială Aplicată la Securitate, care va utiliza algoritmi de învățare automată pentru a analiza datele istorice privind infracțiunile și pentru a prezice infracțiunile viitoare.
Implementarea tehnologiei și scopul acesteia
Noua unitate se va concentra pe aplicarea inteligenței artificiale, analizei datelor și învățării automate pentru a identifica modele și tendințe criminale în bazele de date ale ministerului de securitate. Este de așteptat ca aceasta să folosească software de recunoaștere facială pentru a identifica „persoane căutate”, să monitorizeze rețelele sociale și să analizeze în timp real imaginile de pe camerele de securitate pentru a detecta activități suspecte.
Ministerul Securității a declarat că noua unitate va contribui la „detectarea amenințărilor potențiale, identificarea mișcărilor grupurilor criminale și anticiparea tulburărilor”. Totuși, această măsură, inspirată de filmul „Minority Report”, a ridicat semnale de alarmă în rândul organizațiilor pentru drepturile omului.
Îngrijorările legate de drepturile omului
Experții sunt îngrijorați că anumite grupuri din societate ar putea fi supravegheate excesiv de această tehnologie și și-au exprimat temeri cu privire la cine și câți membri ai forțelor de securitate vor avea acces la informațiile colectate. Amnesty International a avertizat că această inițiativă ar putea încălca drepturile omului, generând probleme legate de confidențialitatea și protecția datelor personale.
„Supravegherea la scară largă afectează libertatea de exprimare, deoarece încurajează oamenii să se autocenzureze sau să se abțină de la a-și împărtăși ideile sau criticile, dacă suspectează că tot ceea ce comentează, postează sau publică este monitorizat de forțele de securitate”, a declarat Mariela Belski, directorul executiv al Amnesty International Argentina.
Centrul Argentinian pentru Studii privind Libertatea de Exprimare și Accesul la Informații a subliniat că astfel de tehnologii au fost folosite în trecut pentru a „profiliza academicieni, jurnaliști, politicieni și activiști”, ceea ce, fără o supraveghere adecvată, amenință intimitatea individuală.
Contextul politic și istoric
Javier Milei, un libertarian de extremă-dreapta, a ajuns la putere la sfârșitul anului trecut și a promis o abordare fermă în combaterea criminalității. Ministrul său al securității, Patricia Bullrich, dorește să adopte un model controversat inspirat din închisorile din El Salvador, în timp ce administrația sa se îndreaptă spre militarizarea politicii de securitate.
Argentina are un istoric întunecat de represiune de stat, cu aproximativ 30.000 de persoane dispărute forțat în timpul dictaturii brutale din perioada 1976-1983. Mii de persoane au fost torturate, iar sute de copii au fost răpiți. Aceste evenimente istorice amplifică reacțiile critice față de măsurile actuale.
Asigurările guvernului
O sursă din ministerul securității a declarat că noua unitate va funcționa conform legislației actuale, inclusiv în conformitate cu mandatul Legii de Protecție a Informațiilor Personale. Aceasta a adăugat că unitatea se va concentra pe utilizarea inteligenței artificiale, analizei datelor și învățării automate pentru a identifica modele și tendințe criminale în bazele de date ale ministerului de securitate.
În concluzie, Argentina devine prima țară care utilizează inteligența artificială pentru a prezice infracțiunile viitoare, o măsură controversată care ridică întrebări semnificative privind echilibrul dintre securitate și respectarea drepturilor omului. Rămâne de văzut cum va evolua implementarea acestei tehnologii și ce efecte va avea asupra societății.