joi, 23 iunie 2022

Adriean Pârlog - Comunitățile de informații și provocările inteligenței artificiale

 



Comunitățile de informații și provocările inteligenței artificiale

General Mr. (r) dr. Adriean Pârlog

22 Iunie 2022

 

În epoca omniprezenței calculatorului în toate domeniile vieții sociale, concepte precum inteligența artificială (I.A.), mașini autoadaptabile sau mașini learning (M.L.), rețele neuronale artificiale (A.N.N.) sau deep learning (D.L.) au devenit concepte aproape cotidiene. Fără să dezvoltăm dimensiunea tehnică a acestora, prezentăm schematic semnificația acestora și legăturile cauzale dintre ele.

 

Inteligența artificială este definită ca reprezentând capacitatea unui calculator (mașină) de a imita funcții umane, cum ar fi raționamentul, învățarea, planificarea și creativitatea. Acest fapt permite sistemelor tehnice să înțeleagă mediul în care funcționează, să prelucreze aceste percepții și să rezolve probleme, acționând pentru a atinge un anumit obiectiv. Calculatorul primește datele (deja pregătite în baze de date sau colectate prin intermediul propriilor senzori, cum ar fi o cameră video sau un microfon), le prelucrează și „reacționează”. Sistemele dotate cu I.A. sunt capabile să funcționeze autonom, să își adapteze într-o anumită măsură comportamentul, analizând efectele acțiunilor anterioare. Unele tehnologii specifice I.A. există de peste 50 de ani, însă creșterea puterii de calcul, disponibilitatea unor cantități enorme de date, informații și noii algoritmi au condus la progrese majore în acest domeniu.

 

Inteligența artificială este considerată un element central al transformării digitale a societății și a devenit o prioritate pentru toate industriile contemporane, inclusiv pentru industria prelucrării informațiilor. Astăzi I.A. este prezentă efectivă în comerț, marketing, planificare, optimizare, logistică, regăsire informații, motoare de căutare cu memorie, recunoaștere facială, rețele sociale, traduceri orale și scrise, subtitrare fișiere video, robotică medicală, industrială și agricolă, livrare de bunuri în sistem poștal, securitate fizică, cibernetică, secretariat, infrastructuri inteligente, smart city, control trafic, navigație și mobilitate mijloace de transport, vehicule terestre, navale și aeriene fără pilot, contracarare știri false, propagandă, dezinformare, etc.

 

I.A. nu a rămas indiferentă nici domeniului de asigurare a securității statelor. Dacă până la apariția internetului cele mai importante variabile ale securității erau considerate puterea și geografia statului analizat, azi aceste considerente sunt depășite. Protecția acestuia nu mai poate fi asigurată la fel de ușor de forțele armate, de lanțuri muntoase, cursuri mari de ape, mări sau oceane. De ce? A fost deschis și operaționalizat spațiul cibernetic, după cel cosmic și electromagnetic, în care oricine poate amenința pe oricine. În plus, astăzi, toată lumea are nevoie vitală de date și informații din toate domeniile de interes, al căror volum se dublează la fiecare doi ani, majoritatea fiind accesibile pe internet.

 

În trecutul recent, serviciile de informații alergau „vânătorește” și costisitor după informații, iar acum sunt inundate de acestea. Tradițional, rapoartele de informații începeau cu materiale clandestine și clasificate și apoi erau completate cu informații din surse deschise (O.S.I.N.T.). Astăzi, lucrurile s-au inversat. Se începe cu O.S.I.N.T. și apoi se caută completări informative prin accesarea surselor clandestine și clasificate. Se pare că cel mai eficient instrument al integrării O.S.I.N.T. cu informațiile clasificate este oferit de I.A., printre altele și datorită nevoii de securizare a timpilor de luare a deciziilor strategice, operative și tactice. Spre exemplu, pe durata crizei rachetelor nucleare din 1962, Președintele Kennedy a avut nevoie de 13 zile de reflecție, după ce avioanele U-2 au descoperit rachete sovietice în Cuba. Astăzi, timpul pentru decizii similare ar putea fi de 13 minute sau chiar mai puțin în cazul unor atacuri iminente.

 

În prezent, marea majoritate a comunităților de informații sunt preocupate de operaționalizarea integrată a tot ceea ce aduce nou, cu bune și rele, domeniul inteligenței artificiale în viața socială. Acceptând și beneficiile și provocările ce însoțesc inteligența artificială ar trebui începute eforturile de prioritizare a deciziilor de achiziție a sistemelor ce includ astfel de sisteme performante. Riscurile legate de acceptarea componentelor cu inteligență artificială pot include, printre altele, eșecul generat de tehnologia lipsită de implicare umană, de date și informații neconforme cu funcționalitatea sistemelor ce le folosesc, atacuri diverse, compromisuri ale lanțurilor de aprovizionare, erori umane anterioare, depășiri ale costurilor, provocări de conformitate legislativă sau probleme de supervizare marginală.

 

În antreprenoriat și inovație, „eșecul” nu este un eveniment foarte rar. Mai degrabă face parte din procesul de învățare-adaptare care conduce în cele din urmă la succes. Guvernele însă, nu sunt centre de cercetare sau inovare și nu pot considera eșecul o parte utilă a activităților economico-sociale nici măcar atunci când vine vorba de securitatea națională. Structurile de informații și securitate ar trebui să-și regândească disponibilitatea de a-și asuma riscuri cuantificabile într-un domeniu în care schimbarea și eșecul sunt percepute ca „parte a succeselor” viitoare. Acestea ar trebui să treacă de la o cultură care aproape respinge chiar și riscul rezonabil, la una care îl acceptă și îl atenuează. Acest lucru se poate face doar printr-o abordare sistematică, repetitivă a proceselor de luare a deciziilor ce incumbă managementul riscurilor. Astăzi, la nivel național nu există mecanisme inter-agenții de informații și securitate care să evalueze riscul și cu atât mai puțin, pentru a și-l asuma. Atunci când iau în considerare activități sau abordări noi, fiecare element al comunităților de informații gestionează riscul prin prisma unor proceduri proprii de evaluare atașate atât acțiunii, cât și inacțiunii. Evaluările neuniforme și inconsecvente ale riscurilor nu vor oferi confortul necesar acceptării unei schimbări de cultură la nivelul comunităților către asumarea riscurilor.

 

Crearea acestor mecanisme individuale este pozitivă pentru agențiile guvernamentale, dar ar trebuie făcută în mod holistic în cadrul comunităților de informații pentru că amenințările și vulnerabilitățile sunt similare și suprapuse, dar nu sunt percepute identic de toți actorii. Din acest motiv, comunitățile de informații ar trebui să aibă un cadru strategic flexibil, dar comun pentru a lua în considerare riscurile care privesc întreaga comunitate, fiecare element având capacitatea de a adapta acel cadru la propriile misiuni. Când se abordează problematica riscurilor, crearea unui cadru umbrelă la nivelul întregii comunități va îmbunătăți semnificativ capacitatea de a înțelege riscurile acceptabile, va conduce la evaluări de risc comparabile și va oferi factorilor de decizie o capacitate superioară de a anticipa și de a atenua eșecurile.

 

Proiectarea cu succes a acestui tablou-cadru al riscurilor necesită o abordare multidisciplinară care să implice lideri din întregul sistem, experți din toate domeniile funcționale relevante care pot asigura „stocul de vigilență” necesar înțelegerii integrate a oportunităților, amenințărilor și vulnerabilităților induse de o astfel de decizie. O metodologie a întregii activități care include tehnologii noi, inclusiv disruptive și care integrează culegători de informații, analiști, inovatori, experți în securitate, logistică specializată, achiziții, psihologi, sociologi, juriști și multe altele, este esențială pentru a asigura „o înțelegere sferică” a consecințelor potențiale asociate cu o anumită acțiune și pentru a permite luarea celor mai bine fundamentate decizii.

 

Având în vedere numeroasele categorii de actori fizici și juridici implicați, fiecare element al comunității de informații trebuie să redefinească consolidat procesele interne pentru a gestiona potențialele deconectări ce pot genera riscuri neintenționate. Fiecare angajat ar trebui să conștientizeze responsabilitatea reconsiderării în mod proactiv a riscului în fiecare etapă a activităților sale.

 

Managementul intern al fiecărei verigi componente ar trebui să includă o structură de gestiune a riscului interdisciplinar formată din lideri seniori din întreaga organizație. Această structură ar trebui să stabilească praguri clare pentru momentele de lansare a procedurilor de evaluare a riscurilor și implicațiile acestora la nivelul comunității. Tabloul-cadru al riscurilor ar trebui să ofere o taxonomie comună întregii comunități pentru:

 

- înțelegerea și identificarea potențialelor sincope funcționale care să includă cronologic sursa sincopelor și gama de efecte;

 

- analiza eșecurilor funcționale și analiza riscurilor identificate prin luarea în calcul a vulnerabilităților sau a condițiilor ce pot genera creșteri ale probabilității de apariție a unor evenimente cu impact negativ;

 

- evaluarea probabilităților atașate eșecurilor, luând în considerare riscurile generate de vulnerabilități;

 

- evaluarea severității impactului potențial, generator de daune aduse operațiunilor în curs, activelor, personalului sau altor organizației, inclusiv statului;

 

luarea în considerare a atenuării riscului final (inclusiv posibilitatea acceptării, evitării sau a transferării acestuia).

 

Înțelegerea și luarea în considerare a riscului de acțiune este un pas important înainte pentru comunitățile de informații, dar nu este ultimul. Uneori, în practicile de evaluare a riscului, este trecut cu vederea riscul indus de inacțiune. Pentru a evalua pe deplin opțiunile potențiale, factorii de decizie trebuie să ia în considerare dacă riscul general de a face ceva este depășit de riscurile de a nu face acest lucru. Orice decizie finală cu privire la acțiune trebuie să ia în considerare și dacă refuzul de a acționa nu ar cauza un risc mai mic. Dar pentru a aborda cu succes oricare dintre aceste sarcini specifice, comunitățile de informații ar trebui să se aplece și asupra culturii organizaționale. Aceasta este chintesența etosului unei organizații, adică credințele, comportamentele, valorile și caracteristicile grupului uman ce o încadrează. Dacă prin cultură înțelegem comportamentul și modurile prin care un grup se distinge de un alt grup de oameni, atunci prin cultura organizațională înțelegem un set de valori, principii, politici, atitudini prin care grupul oamenilor dintr-o organizație își desfășoară activitatea, atât în cadrul acesteia, cât și în relație cu mediul extern. Aceste elemente definesc identitatea unei organizații și au ca scop îndeplinirea cu succes a obiectivelor organizației. Din perspectiva teoriei organizațiilor, serviciile de informații reprezintă o adevărată excepție de la regulă, în sensul că înglobează toate dimensiunile definiționale ale conceptului de cultură organizațională, conform schemei alăturate.

 

Astăzi, putem afirma fără teama de a greși că IA schimbă jocul în domeniul managementului organizațiilor furnizoare de securitate (mai ales prin provocările în domeniile securității cibernetice și cel al rețelelor sociale), prin capacitatea sa de a analiza cantități uriașe de informații și date referitoare la riscuri, fapt ce va accelera viteza de răspuns a sistemelor complexe de luare a deciziilor strategice, operaționale și tactice.

 

În contextul celor descrise mai sus, a ignora IA reprezintă un pericol real al zilelor noastre pentru că această atitudine reprezintă începutul unor oportunități ratate. Tot odată, dacă este operaționalizată în afară unui cadru normat juridic, IA ar putea avea un impact distructiv grav asupra dreptului la viață privată și la protecția datelor personale. Spre exemplu, ar putea fi utilizată în echipamente de recunoaștere facială sau pentru operații de supraveghere online, inclusiv pentru crearea de profiluri comportamentale reale sau imaginate ale unor persoane fizice reale.

 

IA a fost deja blamată pentru crearea și operaționalizarea came-relor de ecou online pe baza comportamentului anterior în rețea al unei persoane, „afișându-i” acesteia numai conți-nuturi apreciate de acea persoană, în loc să creeze un mediu propice dezbaterilor publice pluraliste, accesibile în mod echilibrat și favorabile socializării.

 

IA ar putea fi folosită chiar pentru a crea fișiere video și audio virtuale, fără nici o legătură cu realitatea. Adică imagini false dar greu de dovedit ca fiind non reale, ce pot genera falsuri juridice, financiare sau compor-tamentale ce pot dăuna grav proceselor decizionale sau reputației personale (așa-numitele „deepfake”, tehnici susținute de inteligența artificială, utilizate pentru a crea conținut media fals cu aspect real – de obicei un videoclip – ce prezintă oameni cărora li se modifică dinamica facială și li se atribuie un discurs pe care de fapt nu l-au rostit niciodată).

 

IA scăpată controlului social ar putea genera evenimente false cu impact electoral real, greu de demonstrat ca fiind produse artificiale (deci manipulative și antidemocratice) ce ar putea afecta și influența libertățile de alegere și de expresie.  Foarte probabil ca, în viitorul apropiat, de aici să apară marile provocări profesionale pentru domeniile informații, contrainformații și impunere a legii.







Niciun comentariu:

Trimiteți un comentariu