duminică, martie 23, 2025
AcasăCaleidoscopCum riscul reprezentat de armele bazate pe inteligență artificială ar putea scăpa...

Cum riscul reprezentat de armele bazate pe inteligență artificială ar putea scăpa de sub control

Jurnaliștii de la The Conversation au stat de vorbă cu specialiștii în AI despre dezvoltarea lor în domeniul înarmării.

Uneori, inteligența artificială nu este atât de inteligentă pe cât credem. Cercetătorii care antrenau un algoritm pentru identificarea cancerului de piele au crezut că au reușit, până când au descoperit că acesta se baza pe prezența unei rigle pentru a face predicții. Mai exact, setul lor de date conținea imagini în care un patolog plasase o riglă pentru a măsura dimensiunea leziunilor maligne.

Algoritmul a extrapolat această logică la toate imaginile din afara setului de date, ajungând astfel să identifice țesuturi benigne drept maligne doar pentru că în imagine apărea o riglă.

Problema nu este că algoritmul AI a făcut o greșeală, ci felul în care „gândește”. Niciun patolog uman nu ar fi ajuns la această concluzie.

Astfel de cazuri de „raționament” defectuos sunt frecvente – de la algoritmi de resurse umane care preferă să angajeze bărbați pentru că setul de date este înclinat în favoarea lor, până la perpetuarea inegalităților rasiale în tratamentele medicale. Acum că aceste probleme sunt cunoscute, cercetătorii se grăbesc să le corecteze.

Google renunță la interdicția privind dezvoltarea armelor bazate pe inteligență artificială

Recent, Google a decis să renunțe la interdicția de lungă durată privind dezvoltarea armelor bazate pe inteligență artificială. Aceasta ar putea include atât utilizarea AI în crearea de armament, cât și în sisteme de supraveghere și arme capabile să fie desfășurate autonom pe câmpul de luptă. Decizia a fost luată la doar câteva zile după ce compania-mamă, Alphabet, a înregistrat o scădere de 6% a prețului acțiunilor sale.

Nu este prima dată când Google pășește pe un teren controversat. A colaborat anterior cu Departamentul Apărării al SUA pentru utilizarea tehnologiei sale AI în cadrul Project Maven, un program destinat recunoașterii obiectelor pentru drone.

Când, în 2018, a devenit public faptul că Google avea acest contract, a stârnit un val de nemulțumire din partea angajaților care nu doreau ca tehnologia pe care o dezvoltaseră să fie folosită în războaie. În cele din urmă, Google nu a reînnoit contractul, iar acesta a fost preluat în schimb de rivalul său, Palantir.

Viteza cu care un concurent a preluat contractul i-a făcut pe unii să remarce inevitabilitatea acestor evoluții și să sugereze că ar fi poate mai bine să fii în interiorul acestui proces pentru a influența viitorul.

Un astfel de argument presupune, desigur, că firmele și cercetătorii vor avea puterea de a modela viitorul după cum își doresc. Însă cercetările anterioare au arătat că această presupunere este eronată din cel puțin trei motive.

Capcana încrederii

În primul rând, oamenii sunt predispuși să cadă într-o „capcană a încrederii”. Am studiat acest fenomen, care descrie tendința oamenilor de a crede că, deoarece asumarea de riscuri a dat roade în trecut, este justificat să își asume și mai multe riscuri în viitor.

În contextul AI, acest lucru poate însemna extinderea treptată a utilizării unui algoritm dincolo de setul său inițial de date de antrenament. De exemplu, o mașină autonomă ar putea fi utilizată pe o rută care nu a fost inclusă în datele sale de antrenament.

Acest lucru poate genera probleme. Deși există acum o cantitate considerabilă de date pe care AI-ul mașinilor autonome le poate folosi, greșelile continuă să apară. De exemplu, accidente precum cel în care o mașină Tesla a intrat într-un avion privat de 2,75 milioane de lire sterline atunci când proprietarul a activat funcția de apelare automată într-un mediu necunoscut sunt încă posibile.

Pentru armele bazate pe AI, problema este și mai gravă, deoarece nu există nici măcar un volum semnificativ de date inițiale pe care să se bazeze.

În al doilea rând, AI poate raționa într-un mod complet străin înțelegerii umane. Acest lucru a dus la celebrul experiment de gândire al agrafelor pentru documente, în care un AI este programat să producă cât mai multe agrafe. Însă, pentru a-și îndeplini obiectivul, ajunge să consume toate resursele disponibile – inclusiv cele necesare supraviețuirii umane.

Desigur, acest scenariu pare trivial. La urma urmei, oamenii pot stabili reguli etice. Problema, însă, este că nu putem anticipa cum va interpreta AI instrucțiunile primite și, implicit, cum va încerca să le ducă la îndeplinire, ceea ce poate duce la pierderea controlului. Uneori, acest lucru se poate manifesta chiar prin „trișare”. Într-un experiment recent, un AI a înșelat pentru a câștiga partide de șah, modificând fișierele de sistem care indicau pozițiile pieselor, ceea ce i-a permis să facă mutări ilegale.

Totuși, societatea ar putea accepta astfel de greșeli, așa cum acceptă victimele civile ale atacurilor cu drone coordonate de oameni. Această tendință este cunoscută sub numele de „banalitatea extremelor” – un mecanism cognitiv prin care oamenii ajung să normalizeze chiar și cele mai extreme forme de rău pentru a putea face față realității. Raționamentul „străin” al AI-ului ar putea oferi doar o justificare în plus pentru astfel de acceptări.

În al treilea rând, companii precum Google, implicate în dezvoltarea acestor arme, ar putea deveni „prea mari pentru a eșua”. În consecință, chiar și în cazurile evidente în care AI dă greș, este puțin probabil ca ele să fie trase la răspundere. Această lipsă de responsabilitate creează un risc semnificativ, deoarece descurajează învățarea din greșeli și adoptarea măsurilor corective necesare.

Relațiile tot mai strânse dintre liderii marilor companii de tehnologie și președintele american Donald Trump agravează și mai mult această problemă, deoarece contribuie la diluarea și mai accentuată a responsabilității.

În loc să ne alăturăm cursei pentru dezvoltarea armelor bazate pe inteligență artificială, o abordare alternativă ar fi să lucrăm la o interzicere globală privind dezvoltarea și utilizarea acestora.

Deși acest lucru ar putea părea imposibil, gândiți-vă la amenințarea reprezentată de gaura din stratul de ozon. Aceasta a determinat o acțiune rapidă și unită la nivel global, sub forma interzicerii CFC-urilor care o cauzau. De fapt, a durat doar doi ani pentru ca guvernele să ajungă la un acord privind interzicerea acestor substanțe chimice. Acesta este un exemplu despre ce poate fi realizat în fața unei amenințări clare, imediate și recunoscute la nivel mondial.

Spre deosebire de schimbările climatice – care, în ciuda dovezilor copleșitoare, continuă să aibă contestatari – recunoașterea amenințării armelor AI este aproape universală și include antreprenori și oameni de știință de frunte din domeniul tehnologiei.

De fapt, interzicerea utilizării și dezvoltării anumitor tipuri de arme are un precedent – țările au făcut același lucru pentru armele biologice. Problema constă în faptul că niciun stat nu vrea ca altul să dețină această tehnologie înaintea sa și nicio afacere nu vrea să piardă în acest proces.

În acest sens, alegerea de a transforma AI în armă sau de a o interzice va reflecta dorințele umanității. Speranța este ca partea mai bună a naturii umane să prevaleze.

Articolul original poate fi citit AICI.

Deja ai votat!

AVEM NEVOIE DE SPRIJINUL DUMNEAVOASTRĂ!

„Avem nevoie de sprijinul dumneavoastră pentru a putea oferi în continuare jurnalism onest și a lupta cu corupția și dezinformarea, pentru a scrie despre situația reală, nu versiunea oficială cosmetizată oferită de autorități.

REDIRECȚIONEAZĂ 20% DIN IMPOZITUL PE PROFIT AL COMPANIEI TALE

Poți alege ca 20% din taxele plătite de compania ta să meargă către jurnalism de calitate, nu către stat. Descarcă draft-ul contractului de sponsorizare. Completează-l cu datele companiei și suma. Trimite-l la monitorul@monitorulbt.ro *Baza legală poate fi consultată AICI.

Botoșani
ploaie moderată
10.5 ° C
10.6 °
10.5 °
54 %
8.1kmh
91 %
D
9 °
lun
17 °
mar
16 °
mie
14 °
J
12 °

CARICATURA ZILEI

POZA ZILEI

Așa se caută dacă a mai rămas cineva din instituție la muncă.

EDITORIAL

E important să înțelegem dacă am învățat ceva din lecțiile primite în ultimele luni, în materie de democrație sau de cât de repede poate...

EPIGRAMA ZILEI

Doamne sfânt, Doamne ceresc, În acest secol sinistru Fă-ne un zid chinezesc De la Tisa pân' la Nistru... -Dumitru MONACU

HAPPY CINEMA

POLITICĂ EDITORIALĂ

Politica editorială a Monitorului de Botoșani

Monitorul de Botoşani este un cotidian lansat pe 24 iunie 1995, cu distribuţie pe raza judeţului Botoşani. În ultimii ani tot timpul a fost...

ÎN ATENȚIA CITITORILOR

În atenţia cititorilor

Este foarte important pentru redacţia noastră  să ofere cititorilor  posibilitatea de a comunica cu noi  rapid şi uşor. Astfel, pentru: - a ne aduce la...

MONITORUL DE BOTOȘANI – COD DE CONDUITĂ

Codul de conduită al jurnalistului

În prezentul Cod, noţiunea de interes public va fi înţeleasă pornind de la următoarele premise: - Orice chestiune care afectează viaţa comunităţii este de interes...