Comunitățile
de informații și provocările inteligenței artificiale
General
Mr. (r) dr. Adriean Pârlog
22
Iunie 2022
În epoca omniprezenței calculatorului în
toate domeniile vieții sociale, concepte precum inteligența artificială (I.A.),
mașini autoadaptabile sau mașini learning (M.L.), rețele neuronale artificiale
(A.N.N.) sau deep learning (D.L.) au devenit concepte aproape cotidiene. Fără
să dezvoltăm dimensiunea tehnică a acestora, prezentăm schematic semnificația
acestora și legăturile cauzale dintre ele.
Inteligența artificială este definită ca
reprezentând capacitatea unui calculator (mașină) de a imita funcții umane, cum
ar fi raționamentul, învățarea, planificarea și creativitatea. Acest fapt
permite sistemelor tehnice să înțeleagă mediul în care funcționează, să
prelucreze aceste percepții și să rezolve probleme, acționând pentru a atinge
un anumit obiectiv. Calculatorul primește datele (deja pregătite în baze de
date sau colectate prin intermediul propriilor senzori, cum ar fi o cameră
video sau un microfon), le prelucrează și „reacționează”. Sistemele dotate cu
I.A. sunt capabile să funcționeze autonom, să își adapteze într-o anumită
măsură comportamentul, analizând efectele acțiunilor anterioare. Unele
tehnologii specifice I.A. există de peste 50 de ani, însă creșterea puterii de
calcul, disponibilitatea unor cantități enorme de date, informații și noii
algoritmi au condus la progrese majore în acest domeniu.
Inteligența artificială este considerată
un element central al transformării digitale a societății și a devenit o
prioritate pentru toate industriile contemporane, inclusiv pentru industria
prelucrării informațiilor. Astăzi I.A. este prezentă efectivă în comerț,
marketing, planificare, optimizare, logistică, regăsire informații, motoare de
căutare cu memorie, recunoaștere facială, rețele sociale, traduceri orale și
scrise, subtitrare fișiere video, robotică medicală, industrială și agricolă,
livrare de bunuri în sistem poștal, securitate fizică, cibernetică,
secretariat, infrastructuri inteligente, smart city, control trafic, navigație
și mobilitate mijloace de transport, vehicule terestre, navale și aeriene fără
pilot, contracarare știri false, propagandă, dezinformare, etc.
I.A. nu a rămas indiferentă nici
domeniului de asigurare a securității statelor. Dacă până la apariția internetului
cele mai importante variabile ale securității erau considerate puterea și
geografia statului analizat, azi aceste considerente sunt depășite. Protecția
acestuia nu mai poate fi asigurată la fel de ușor de forțele armate, de lanțuri
muntoase, cursuri mari de ape, mări sau oceane. De ce? A fost deschis și
operaționalizat spațiul cibernetic, după cel cosmic și electromagnetic, în care
oricine poate amenința pe oricine. În plus, astăzi, toată lumea are nevoie
vitală de date și informații din toate domeniile de interes, al căror volum se
dublează la fiecare doi ani, majoritatea fiind accesibile pe internet.
În trecutul recent, serviciile de
informații alergau „vânătorește” și costisitor după informații, iar acum sunt
inundate de acestea. Tradițional, rapoartele de informații începeau cu
materiale clandestine și clasificate și apoi erau completate cu informații din
surse deschise (O.S.I.N.T.). Astăzi, lucrurile s-au inversat. Se începe cu
O.S.I.N.T. și apoi se caută completări informative prin accesarea surselor
clandestine și clasificate. Se pare că cel mai eficient instrument al
integrării O.S.I.N.T. cu informațiile clasificate este oferit de I.A., printre
altele și datorită nevoii de securizare a timpilor de luare a deciziilor
strategice, operative și tactice. Spre exemplu, pe durata crizei rachetelor
nucleare din 1962, Președintele Kennedy a avut nevoie de 13 zile de reflecție,
după ce avioanele U-2 au descoperit rachete sovietice în Cuba. Astăzi, timpul
pentru decizii similare ar putea fi de 13 minute sau chiar mai puțin în cazul
unor atacuri iminente.
În prezent, marea majoritate a
comunităților de informații sunt preocupate de operaționalizarea integrată a
tot ceea ce aduce nou, cu bune și rele, domeniul inteligenței artificiale în
viața socială. Acceptând și beneficiile și provocările ce însoțesc inteligența
artificială ar trebui începute eforturile de prioritizare a deciziilor de
achiziție a sistemelor ce includ astfel de sisteme performante. Riscurile
legate de acceptarea componentelor cu inteligență artificială pot include,
printre altele, eșecul generat de tehnologia lipsită de implicare umană, de
date și informații neconforme cu funcționalitatea sistemelor ce le folosesc,
atacuri diverse, compromisuri ale lanțurilor de aprovizionare, erori umane anterioare,
depășiri ale costurilor, provocări de conformitate legislativă sau probleme de
supervizare marginală.
În antreprenoriat și inovație, „eșecul” nu
este un eveniment foarte rar. Mai degrabă face parte din procesul de
învățare-adaptare care conduce în cele din urmă la succes. Guvernele însă, nu
sunt centre de cercetare sau inovare și nu pot considera eșecul o parte utilă a
activităților economico-sociale nici măcar atunci când vine vorba de
securitatea națională. Structurile de informații și securitate ar trebui să-și
regândească disponibilitatea de a-și asuma riscuri cuantificabile într-un
domeniu în care schimbarea și eșecul sunt percepute ca „parte a succeselor”
viitoare. Acestea ar trebui să treacă de la o cultură care aproape respinge
chiar și riscul rezonabil, la una care îl acceptă și îl atenuează. Acest lucru
se poate face doar printr-o abordare sistematică, repetitivă a proceselor de
luare a deciziilor ce incumbă managementul riscurilor. Astăzi, la nivel
național nu există mecanisme inter-agenții de informații și securitate care să
evalueze riscul și cu atât mai puțin, pentru a și-l asuma. Atunci când iau în
considerare activități sau abordări noi, fiecare element al comunităților de
informații gestionează riscul prin prisma unor proceduri proprii de evaluare
atașate atât acțiunii, cât și inacțiunii. Evaluările neuniforme și
inconsecvente ale riscurilor nu vor oferi confortul necesar acceptării unei
schimbări de cultură la nivelul comunităților către asumarea riscurilor.
Crearea acestor mecanisme individuale este
pozitivă pentru agențiile guvernamentale, dar ar trebuie făcută în mod holistic
în cadrul comunităților de informații pentru că amenințările și
vulnerabilitățile sunt similare și suprapuse, dar nu sunt percepute identic de
toți actorii. Din acest motiv, comunitățile de informații ar trebui să aibă un
cadru strategic flexibil, dar comun pentru a lua în considerare riscurile care
privesc întreaga comunitate, fiecare element având capacitatea de a adapta acel
cadru la propriile misiuni. Când se abordează problematica riscurilor, crearea
unui cadru umbrelă la nivelul întregii comunități va îmbunătăți semnificativ
capacitatea de a înțelege riscurile acceptabile, va conduce la evaluări de risc
comparabile și va oferi factorilor de decizie o capacitate superioară de a
anticipa și de a atenua eșecurile.
Proiectarea cu succes a acestui
tablou-cadru al riscurilor necesită o abordare multidisciplinară care să
implice lideri din întregul sistem, experți din toate domeniile funcționale
relevante care pot asigura „stocul de vigilență” necesar înțelegerii integrate
a oportunităților, amenințărilor și vulnerabilităților induse de o astfel de
decizie. O metodologie a întregii activități care include tehnologii noi,
inclusiv disruptive și care integrează culegători de informații, analiști,
inovatori, experți în securitate, logistică specializată, achiziții, psihologi,
sociologi, juriști și multe altele, este esențială pentru a asigura „o
înțelegere sferică” a consecințelor potențiale asociate cu o anumită acțiune și
pentru a permite luarea celor mai bine fundamentate decizii.
Având în vedere numeroasele categorii de actori
fizici și juridici implicați, fiecare element al comunității de informații
trebuie să redefinească consolidat procesele interne pentru a gestiona
potențialele deconectări ce pot genera riscuri neintenționate. Fiecare angajat
ar trebui să conștientizeze responsabilitatea reconsiderării în mod proactiv a
riscului în fiecare etapă a activităților sale.
Managementul intern al fiecărei verigi
componente ar trebui să includă o structură de gestiune a riscului
interdisciplinar formată din lideri seniori din întreaga organizație. Această
structură ar trebui să stabilească praguri clare pentru momentele de lansare a
procedurilor de evaluare a riscurilor și implicațiile acestora la nivelul
comunității. Tabloul-cadru al riscurilor ar trebui să ofere o taxonomie comună
întregii comunități pentru:
- înțelegerea și identificarea
potențialelor sincope funcționale care să includă cronologic sursa sincopelor
și gama de efecte;
- analiza eșecurilor funcționale și
analiza riscurilor identificate prin luarea în calcul a vulnerabilităților sau
a condițiilor ce pot genera creșteri ale probabilității de apariție a unor
evenimente cu impact negativ;
- evaluarea probabilităților atașate
eșecurilor, luând în considerare riscurile generate de vulnerabilități;
- evaluarea severității impactului
potențial, generator de daune aduse operațiunilor în curs, activelor,
personalului sau altor organizației, inclusiv statului;
luarea în considerare a atenuării riscului
final (inclusiv posibilitatea acceptării, evitării sau a transferării
acestuia).
Înțelegerea și luarea în considerare a
riscului de acțiune este un pas important înainte pentru comunitățile de
informații, dar nu este ultimul. Uneori, în practicile de evaluare a riscului,
este trecut cu vederea riscul indus de inacțiune. Pentru a evalua pe deplin
opțiunile potențiale, factorii de decizie trebuie să ia în considerare dacă
riscul general de a face ceva este depășit de riscurile de a nu face acest
lucru. Orice decizie finală cu privire la acțiune trebuie să ia în considerare și
dacă refuzul de a acționa nu ar cauza un risc mai mic. Dar pentru a aborda cu
succes oricare dintre aceste sarcini specifice, comunitățile de informații ar
trebui să se aplece și asupra culturii organizaționale. Aceasta este
chintesența etosului unei organizații, adică credințele, comportamentele,
valorile și caracteristicile grupului uman ce o încadrează. Dacă prin cultură
înțelegem comportamentul și modurile prin care un grup se distinge de un alt
grup de oameni, atunci prin cultura organizațională înțelegem un set de valori,
principii, politici, atitudini prin care grupul oamenilor dintr-o organizație
își desfășoară activitatea, atât în cadrul acesteia, cât și în relație cu
mediul extern. Aceste elemente definesc identitatea unei organizații și au ca scop
îndeplinirea cu succes a obiectivelor organizației. Din perspectiva teoriei
organizațiilor, serviciile de informații reprezintă o adevărată excepție de la
regulă, în sensul că înglobează toate dimensiunile definiționale ale
conceptului de cultură organizațională, conform schemei alăturate.
Astăzi, putem afirma fără teama de a greși
că IA schimbă jocul în domeniul managementului organizațiilor furnizoare de
securitate (mai ales prin provocările în domeniile securității cibernetice și
cel al rețelelor sociale), prin capacitatea sa de a analiza cantități uriașe de
informații și date referitoare la riscuri, fapt ce va accelera viteza de
răspuns a sistemelor complexe de luare a deciziilor strategice, operaționale și
tactice.
În contextul celor descrise mai sus, a
ignora IA reprezintă un pericol real al zilelor noastre pentru că această
atitudine reprezintă începutul unor oportunități ratate. Tot odată, dacă este
operaționalizată în afară unui cadru normat juridic, IA ar putea avea un impact
distructiv grav asupra dreptului la viață privată și la protecția datelor
personale. Spre exemplu, ar putea fi utilizată în echipamente de recunoaștere
facială sau pentru operații de supraveghere online, inclusiv pentru crearea de
profiluri comportamentale reale sau imaginate ale unor persoane fizice reale.
IA a fost deja blamată pentru crearea și
operaționalizarea came-relor de ecou online pe baza comportamentului anterior
în rețea al unei persoane, „afișându-i” acesteia numai conți-nuturi apreciate
de acea persoană, în loc să creeze un mediu propice dezbaterilor publice
pluraliste, accesibile în mod echilibrat și favorabile socializării.
IA ar putea fi folosită chiar pentru a
crea fișiere video și audio virtuale, fără nici o legătură cu realitatea. Adică
imagini false dar greu de dovedit ca fiind non reale, ce pot genera falsuri
juridice, financiare sau compor-tamentale ce pot dăuna grav proceselor
decizionale sau reputației personale (așa-numitele „deepfake”, tehnici
susținute de inteligența artificială, utilizate pentru a crea conținut media
fals cu aspect real – de obicei un videoclip – ce prezintă oameni cărora li se
modifică dinamica facială și li se atribuie un discurs pe care de fapt nu l-au
rostit niciodată).
IA scăpată controlului social ar putea
genera evenimente false cu impact electoral real, greu de demonstrat ca fiind
produse artificiale (deci manipulative și antidemocratice) ce ar putea afecta
și influența libertățile de alegere și de expresie. Foarte probabil ca, în viitorul apropiat, de
aici să apară marile provocări profesionale pentru domeniile informații,
contrainformații și impunere a legii.
Niciun comentariu:
Trimiteți un comentariu