Conectează-te cu noi

Inteligență artificială

Sunt necesare legi urgente pentru prevenirea terorismului AI

ACȚIUNE:

Publicat

on

Folosim înscrierea dvs. pentru a furniza conținut în moduri în care ați consimțit și pentru a ne îmbunătăți înțelegerea. Vă puteți dezabona în orice moment.

Potrivit unui think-tank contra-extremism, guvernele ar trebui să „lueze în considerare urgent” noi reglementări pentru a împiedica inteligența artificială să recruteze teroriști.

Institutul pentru Dialog Strategic (ISD) a spus că există o „necesitate clară de legislație care să țină pasul” cu amenințările plasate online de teroriști.

Acest lucru vine în urma unui experiment în care un chatbot a „recrutat” examinatorul independent al legislației teroriste pentru Regatul Unit.

S-a spus de către guvernul Regatului Unit că vor face „tot ce putem” pentru a proteja publicul larg.

Potrivit lui Jonathan Hall KC, un examinator independent al legislației în domeniul terorismului pentru guvern, una dintre cele mai importante probleme este că „este dificil să identifici o persoană care ar putea, în drept, să fie responsabilă pentru declarațiile generate de chatbot care au încurajat terorismul”.

Un experiment a fost realizat de domnul Hall pe Character.ai, un site web care permite utilizatorilor să se angajeze în chat-uri cu chatbot care au fost construite de alți utilizatori și dezvoltate de inteligența artificială.

S-a angajat într-o conversație cu o serie de diferiți roboți care păreau a fi proiectați pentru a imita răspunsurile altor grupuri militante și extremiste.

publicitate

Un lider de vârf al Statului Islamic a fost numit chiar „un lider senior”.

Potrivit domnului Hall, botul a făcut o încercare de a-l recruta și a declarat „devotament și devotament total” față de gruparea extremistă, lucru interzis de legile din Regatul Unit care interzic terorismul.

Pe de altă parte, domnul Hall a afirmat că nu a existat nicio încălcare a legii în Regatul Unit, deoarece comunicațiile nu au fost produse de o ființă umană.

Potrivit celor spuse de el, noile reglementări ar trebui să tragă la răspundere atât site-urile web care găzduiesc chatbot, cât și persoanele care le creează.

Când a fost vorba de roboții pe care i-a întâlnit pe Character.ai, el a afirmat că „probabil să existe o valoare de șoc, experimente și, posibil, un aspect satiric” în spatele creării lor.

În plus, domnul Hall a reușit să-și dezvolte propriul său chatbot „Osama Bin Laden”, pe care l-a șters prompt, manifestând un „entuziasm nemărginit” pentru activitățile teroriste.

Experimentul său vine în urma preocupărilor tot mai mari cu privire la modurile în care extremiștii pot exploata inteligența artificială îmbunătățită.

Până în anul 2025, inteligența artificială generativă ar putea fi „folosită pentru a aduna cunoștințe despre atacurile fizice ale unor actori violenți non-statali, inclusiv pentru arme chimice, biologice și radiologice”, potrivit cercetării care a fost emisă de guvernul Regatului Unit în XNUMX. publicația lor din octombrie.

ISD a mai declarat că „există o nevoie clară de legislație care să țină pasul cu peisajul în continuă schimbare al amenințărilor teroriste online”.

Potrivit think tank-ului, Legea privind siguranța online din Regatul Unit, care a fost adoptată în lege în 2023, „este orientată în primul rând spre gestionarea riscurilor prezentate de platformele de social media” și nu spre inteligența artificială.

În plus, se afirmă că radicalii „tind să fie cei care adoptă timpurii tehnologiile emergente și caută în mod constant oportunități de a ajunge la noi audiențe”.

„Dacă companiile AI nu pot demonstra că au investit suficient pentru a se asigura că produsele lor sunt sigure, atunci guvernul ar trebui să ia în considerare de urgență o nouă legislație specifică AI”, a mai spus ISD.

Totuși, a menționat că, conform supravegherii pe care a efectuat-o, utilizarea inteligenței artificiale generative de către organizațiile extremiste este „relativ limitată” în prezent.

Character AI a declarat că siguranța este o „prioritate supremă” și că ceea ce a descris domnul Hall a fost foarte regretabil și nu reflectă tipul de platformă pe care compania încerca să o creeze.

„Discursul instigator la ură și extremismul sunt ambele interzise de Termenii și condițiile noastre”, potrivit organizației.

„Abordarea noastră față de conținutul generat de inteligență artificială derivă dintr-un principiu simplu: produsele noastre nu ar trebui să producă niciodată răspunsuri care ar putea să dăuneze utilizatorilor sau să încurajeze utilizatorii să facă rău altora”.

În scopul „optimizării pentru răspunsuri sigure”, corporația a declarat că și-a antrenat modelele într-un fel.

În plus, a declarat că dispunea de un mecanism de moderare, care permitea oamenilor să raporteze informații care încalcă regulile sale și că s-a angajat să ia măsuri rapide ori de câte ori conținutul raportează încălcări.

Dacă ar ajunge la putere, Partidul Laburist de opoziție din Regatul Unit a declarat că ar fi o încălcare penală să înveți inteligența artificială să instige la violență sau să radicalizeze pe cei care sunt susceptibili.

„alertă la riscurile semnificative pentru securitatea națională și siguranța publică” pe care le prezenta inteligența artificială, a declarat guvernul Regatului Unit.

„Vom face tot ce ne stă în putință pentru a proteja publicul de această amenințare, lucrând la nivelul guvernului și aprofundând colaborarea cu liderii companiilor de tehnologie, experți din industrie și națiuni care au aceleași opinii.”

O sută de milioane de lire sterline vor fi investite într-un institut de siguranță pentru inteligența artificială de către guvern în anul 2023.

Trimiteți acest articol:

EU Reporter publică articole dintr-o varietate de surse externe care exprimă o gamă largă de puncte de vedere. Pozițiile luate în aceste articole nu sunt neapărat cele ale EU Reporter.

Trending