Inteligența
artificială și medicina (2)
Prof.
univ. dr. Vasile Astărăstoae
24
Septembrie 2023
Aplicațiile inteligenței artificiale (A.I.) au
consecințe majore atât pentru umanitate în ansamblu, cât și pentru fiecare
individ; de aceea este vital să se găsească un echilibru între perspectiva dată
de progresul AI și societatea umană în ansamblu. Aceasta deoarece erorile
asociate cu astfel de tehnologii pot provoca probleme, dar și succesele
necontrolate ar putea conduce la probleme și mai grave[1.2].
În medicină, inteligența artificială poate fi
clasificată în trei ramuri principale, și anume: virtuală, fizică și mixtă (o
combinație între realitatea virtuală și roboți)[1].
Indiferent de ramură, dezvoltarea AI în medicină
ridică aceeași întrebare: care sunt limitele tehnice și etice ale unei astfel
de tehnologii? Există aproape un consens în lumea medicală că problema
esențială a utilizarii AI este cea a riscurilor etice, care afectează siguranța
pacientului, autonomia persoanei (exprimată prin consimțământul informat și
confidențialitate), protecția datelor personale etc.
Siguranța
pacientului
În 2012, sistemul AI Watson (I.B.M.), după o perioadă
„de studiu” (ca student la medicină la Cleveland Clinic Lerner College of
Medicine din Case Western Reserve University), a promovat examenul de
autorizare a medicilor din S.U.A.[3.4]. Imediat s-a speculat: viitorul
practicii medicale „standard” ar putea fi un computer ce va înlocui omul?[5.6].
Ulterior, s-a dovedit că Watson utilizat în practica medicală (oncologie)
recomandă adesea tratamente nesigure și incorecte, aceasta deoarece datele
utilizate pentru antrenarea algoritmului lui Watson nu au fost de la pacienți
reali, ci date (ipotetice și insuficiente) de la pacienți virtuali[7]. Și alte
sisteme au avut aceeași problemă. S-a constatat că, atunci când întâlnesc date
din lumea reală, care diferă de cele din seturile de date de antrenament,
performanța AI poate fi mai slabă, ceea ce duce la riscuri clinice crescute[8].
Riscurile și daunele apar din cauza erorilor de
programare, testare, certificare a software-ului etc. toate însoțite de diverse
aspecte legale și etice (9). Cercetătorii vorbesc despre utilizarea AI în
medicină ca despre „o sabie cu două tăișuri” (10) sau o „cutie a Pandorei din
secolul XXI”[11]. Există preocupări cu privire la proprietățile unice și
riscurile inerente tehnologiilor AI mai ales asupra capacităților acestora de
„luare a deciziilor”[12]. Când AI medicală merge prost, poate provoca vătămări
grave oamenilor. De exemplu:
- între 2000 și 2013, roboții chirurgicali din Statele
Unite au fost responsabili pentru cel puțin 1.391 de incidente care au cauzat
vătămări și 144 de decese[13];
- în 2015, britanicii au folosit un robot medical
pentru a efectua o intervenție chirurgicală de reparare a valvei cardiace, iar
robotul nu numai că a făcut erori operaționale grave, dar a și interferat cu
funcționarea corectă a medicilor umani, ducând la moartea pacientului[5];
- în 2019, U.S. Food and Drug Administration (F.D.A.)
a descoperit că sistemul chirurgical robotizat ROSA Brain 3.0 are erori grave
de software[14]; și exemplele pot continua.
Ce este grav este faptul că defectele A.I. pot pune în
pericol mai mulți pacienți decât un diagnostic greșit al unui medic, deoarece
sistemele automate vor replica aceste erori la toți pacienții[15].
Cele mai frecvente cauze ale erorilor inteligenței
artificiale sunt calitatea datelor introduse, prejudecățile algoritmice și
opacitatea algoritmului.
Calitatea
datelor
AI folosește diverși algoritmi pentru a găsi corelații
neliniare complexe în seturi de date masive analitice[16.17]. Calitatea datelor
determină în mod direct capacitatea AI de a rezolva probleme medicale. Există
între informaticeni o afirmație axiomatică: „garbage in, garbage out” (gunoi
introduci, gunoi iese). În medicina, datele sunt numeroase și complicate.
Datele medicale provin din multiple surse și sunt eterogene: date din
literatură, date din studiile clinice, date din lumea reală, date din sănătatea
publică etc.[18]. Cei care creează algoritmii sunt informaticeni (rar sunt
medicii care tratează pacienții) și de aceea se pot înșela atunci când
stabilesc pertinența și concludența datelor[19]. Pentru a înlătura acest
impediment major ar trebui ca informaticenii să cunoască foarte bine medicina,
iar medicii să cunoască foarte bine informatica, ceea ce e greu de realizat.
Mai mult, majoritatea bazelor de date utilizate provin de la populații
selectate și drept urmare, atunci când sunt aplicate unor grupe de pacienți
subreprezentate, algoritmii pot să eșueze[20]. De exemplu, dacă algoritmul este
dezvoltat cu date care implică în principal occidentali, poate fi mai puțin
precis în diagnosticarea asiaticilor[21]. Așa cum a afirma Johnson în 2020,
„sistemele AI sunt la fel de bune ca datele furnizate lor”[22].
Prejudecățile
algoritmice
Când s-au introdus aplicațiile AI în medicină, s-a
crezut că astfel s-ar putea să se reduca riscurile, să se atenueze părtinirile
existente în sistemul de sănătate (cum ar fi de exemplu părtinirile cognitive
ale medicilor), conducând astfel la rezultate mai sigure și echitabile[23.24].
Nu a durat mult și s-a constatat că algoritmii pot duce și la rezultate
părtinitoare, care pot avea efecte de anvergură asupra rezultatelor[25].
Prejudecățile algoritmice sunt definite ca defecte ale
algoritmului și includ atât părtinirea indusă de om, cât și părtinirea indusă
de date.
Prejudecățile induse de om sunt determinate de
scrierea, în mod intenționat sau neintenționat, a unui algoritm, care reflectă
percepțiile morale și interesele relevante ale autorilor[26.27].
Prejudecățile induse de date se referă la părtinirea
algoritmului atunci când datele de antrenament nu sunt reprezentative sau
insuficiente, ceea ce afectează modelul algoritmului. Ele nu numai că moștenesc
părtinirile umane, dar este posibil ca acestea să fie întărite și
amplificate[28.29]. În numeroase situații, datele de instruire pentru AI din
domeniul medical provin din unități medicale de nivel înalt, ceea ce duce la
părtinire frecventă atunci când este utilizată în unități medicale de nivel
inferior[30].
Majoritatea algoritmilor exploatează corelațiile brute
în date. Aceste corelații sunt adesea produse secundare ale relațiilor sociale
importante. Prejudecățile algoritmice provin, uneori, și din datele purtătoare
de încărcătură socială și rasială ce pot conduce la inechități și
discriminare[30.31.32.33.34.35].
c.
Opacitatea algoritmului
Opacitatea constă în necunoașterea sau neînțelegerea
modului în care algoritmul funcționează. Există mai multe explicații privind
acest fenomen. Unul ține de secretul comercial și de brevetare. Dezvoltarea AI
este dominată de marile companii private, iar algoritmii sunt secrete
comerciale pe care companiile le ascund în mod intenționat. Deși companiile AI
susțin că, produsele și serviciile lor sunt sigure și etice, ele nu au
convins[36] și companiile sunt în continuare criticate pentru că nu s-au
angajat în dezbateri semnificative despre produsele și cercetările lor[37.38].
Apoi, incapacitatea personalului medical și a publicului de a înțelege
programarea și tehnicile algoritmice, deoarece mulți algoritmi se bazează pe o
matematică foarte complicată inaccesibilă acestora[38]. În sfârșit, fenomenul
de „cutie neagra algoritmică” ceea ce înseamnă că intrările și ieșirile sunt
vizibile și ușor de înțeles, dar procesul de la intrare până la ieșire nu poate
fi explicat sau înțeles. Cu alte cuvinte, motivele din spatele rezultatelor
unui algoritm nu sunt înțelese și nu pot fi interpretate nici măcar de
creatorii lui[38.39].
Consimțământul
informat
Potrivit legislației internaționale transpusă în
legislații naționale, pacientul are dreptul de a obține informații și de a pune
întrebări înainte de orice procedură și orice tratament. Pacienții pot refuza
investigațiile și tratamentul în orice moment. De aceea pacienții ar trebui să
fie informați despre riscurile ce decurg din utilizarea AI, despre erorile de
programare, despre protecția datelor personale, despre cine este responsabil
atunci când aceste dispozitive medicale robotizate cu AI eșuează etc. Dar așa
cum s-a menționat deseori nici medicii nu au acces la toate informațiile
privind AI și la fel de des chiar dacă le au, nu le înțeleg. Atunci cum le pot
pune la dispoziția pacientului? De regulă, pacienții acceptă sistemul AI fără a
pune la îndoială performanța acestuia ceea ce conduce la un consimțământ formal
și viciat. Cum reacționează autoritățile medicale pentru a acoperi aceasta
lacună? Se încearcă tot felul de soluții deocamdată fără rezultate. Rămân
actuale întrebările cu privire la modul în care structurile de răspundere din
medicină vor gestiona eficient problemele legate de tehnologiile AI
implementate[40].
Confidențialitatea
și protecția datelor
AI ridică preocupări legate de confidențialitatea
pacienților și utilizarea datelor acestora. Acestea sunt legitime, deoarece
datele pacienților au o valoare ridicată pentru cercetare și afaceri, și de
aceea încălcarea regimului protecției datelor are loc frecvent. În 2017, peste
15% din încălcările globale ale datelor au venit din industria sănătății (pe
locul doi - după sectorul financiar)[41], au ajuns la un nivel record în 2021 -
afectând peste 45 de milioane de oameni[42], iar conform Raportului Critical
Insights 97% dintre persoanele afectate de o încălcare a securității
cibernetice în prima jumătate a anului 2022 au fost rezultatul unor acțiuni de
hacking și IT[43].
Cantitățile enorme de date cu caracter personal
colectate din diverse surse și inserate în algoritmi AI în scopuri medicale,
pot produce atingeri ale confidențialitatii pacientului[44]. Datele colectate
pot fi piratate sau utilizate (ilegal) în alte scopuri cu reducerea la minimum
a confidențialitații aceasta deoarece ele pot fi de mare ajutor în marketing,
publicitate și vânzările companiilor farmaceutice și de biotehnologie[45.46].
Vulnerabilitățile securității cibernetice ale AI pot fi o amenințare gravă
pentru confidențialitatea pacientului, deoarece sunt, de obicei, ascunse și
descoperite numai după ce daunele au fost cauzate și s-au produs rezultatele
negative[47.48]. În plus, multe tehnologii AI ajung să fie deținute și
controlate de entități private, ceea ce însemna că astfel de corporații joacă
un rol mai mare decât cel obișnuit în obținerea, utilizarea și protejarea
informațiilor despre sănătatea pacientului. Acest lucru ridică noi probleme de
confidențialitate legate de implementare și securitatea datelor[49]. În
literatură, o atenție semnificativă este acordată dezvoltării tehnicilor de
păstrarea confidențialității și depășirii problemelor care împiedică adoptarea
AI într-un mediu clinic real[50]. Odată cu instrumentele tehnice necesare
pentru a îmbina colecții mari de date și pentru a distribui interogări pe baze
de date disparate, cercetătorii vor trebui sa utilizeze metode de anonimizare
și dezidentificare a datelor[51]. Această capacitate de a dezidentifica sau
anonimiza datele poate fi compromisă sau chiar anulată de noii algoritmi, care
au reidentificat cu succes astfel de date[50].
Puține dezbateri s-au concentrat asupra unui risc
important al tehnologiilor AI și anume: cel al dezumanizării actului medical.
Empatia, simpatia, compasiunea sunt emoții unice umane inaccesibile
inteligenței artificiale. Pacienții vor pierde astfel empatia, bunătatea și
comportamentul adecvat atunci când au de-a face cu „medici și asistente
roboți”. Mai mult, dacă medicii și ceilalți furnizori de îngrijire medicală pot
să solicite consultanță sau să ofere consultanță colegilor lor, acest lucru nu
este posibil în sistemele autonome (robotice) AI și pacientul este privat de un
drept – dreptul la a doua opinie. Acestea sunt cele mai semnificative aspecte
negative ale inteligenței artificiale în știința medicală[52.53].
În sfârșit, se poate afirma că deși în prezent
rezultatele arată că AI poate depăși oamenii în multe aspecte, ea nu posedă în esență
liberul arbitru, nu are subiectivitate morală, nu poate evalua independent și
sintetic problemele medicale, nu poate conceptualiza, îi lipsește nivelul de
cunoaștere necesar gândirii critice, nu poate fi un subiect
responsabil[54.55.56.57]. Mai mult, studiile, care raportează aplicarea AI în
practica clinică, sunt limitate atât din cauza designurilor retrospective și a
dimensiunilor eșantionului, cât și a selecției și prejudecăților de spectru; se
potrivesc optim cu un anumit set de date (prin supraajustare), dar nu obțin
aceleași rezultate cu alte date similare [57.58]. De aceea medicii, atunci când
consideră că un sistem de diagnostic și tratament medical AI este în cea mai
mare parte precis și acceptă rezultatele sistemului (fără a-i pune la îndoială
limitele), se plafonează (nereușind să-și mențină abilitățile) și participă la
dezumanizarea profesiei[59].
În concluzie, noile metode AI nu sunt un panaceu; pot
greși, pot funcționa doar într-un domeniu îngust, pot avea prejudecăți, pot
discrimina, pot afecta în mod disproporționat grupurile marginalizate.
Adoptarea precipitată a sistemelor AI, netestate suficent, ar putea duce la
erori, ar putea cauza prejudicii pacienților, ar putea eroda încrederea în
medicina. Tehnologiile AI nu vor putea înlocui personalul medical uman, dar sub
control uman pot fi instrumente eficiente în medicină.
---------------------------------------------------------
[1] Jian Guan, Artificial Intelligence in
Healthcare and Medicine: Promises, Ethical Challenges and Governance, Chin Med
Sci J June 2019 Vol. 34, No. 2 P. 76-83 doi:10.24920/003611
[2] Cath C. Governing artificial
intelligence: ethical, legal and technical opportunities and challenges. Philos
Trans A Math Phys Eng Sci. 2018; 376(2133):20180080; doi: 10.1098/rsta.2018.0080
[3] Lohr, Steve, I.B.M.’s Watson Goes to
Medical School, The New York Times, October 30, 2012,
archive.nytimes.com/bits.blogs.nytimes.com/2012/10/30/i-b-m-s-watson-goes-to-medical-school/
[4] Nusca, Andrew, After a year of medical
school, IBM's Watson passes first milestone, ZDnet, Feb. 8, 2013,
zdnet.com/article/after-a-year-of-medical-school-ibms-watson-passes-first-milestone/
[5] Zhang, J., Zhang, Zm. Ethics and
governance of trustworthy medical artificial intelligence. BMC Med Inform Decis
Mak 23, 7 (2023). doi: 10.1186/s12911-023-02103-9
[6] Miller A. The future of health care
could be elementary with Watson. CMAJ. 2013 Jun 11;185(9):E367-8. doi:
10.1503/cmaj.109-4442. Epub 2013 Apr 15. PMID: 23589429; PMCID: PMC3680569.
[7] Ross, C., Swetlitz, I., IBM’s Watson
supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal
documents show. STAT News, July 25,
2018statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/
[8] Kelly CJ, Karthikesalingam A, Suleyman
M, et al. Key challenges for delivering clinical impact with artificial
intelligence. BMC Med. 2019; 17 (1) : 195 doi: 10.1186/s12916-019-1426-2
[9] O’Sullivan S, Nevejans N, Allen C, et
al. Legal, regulatory, and ethical frameworks for develop-ment of standards in
artificial intelligence(AI) and autonomous robotic surgery. Int J Med Robot.
2019; 15(1):e1968. doi: 10.1002/rcs.1968
[10] Haug CJ, Drazen JM. Artificial
Intelligence and Machine Learning in Clinical Medicine, 2023. N Engl J Med.
2023 Mar 30; 388(13):1201-1208. doi: 10.1056/NEJMra2302038. PMID: 36988595
[11] Cooper A, Rodman A. AI and Medical
Education - A 21st-Century Pandora's Box. N Engl J Med. 2023 Aug 3;
389(5):385-387. doi: 10.1056/NEJMp2304993. Epub 2023 Jul 29. PMID: 37522417
[12] Daniel Schönberger, Artificial
intelligence in healthcare: a critical analysis of the legal and ethical
implications, International Journal of Law and Information Technology, Volume
27, Issue 2, Summer 2019, Pages 171–203, doi: 10.1093/ijlit/eaz004
[13] Alemzadeh H, Raman J, Leveson N, et
al. Adverse events in robotic surgery: a retrospective study of 14 years of FDA
data. PLoS ONE. 2016; 11(4): e0151470. doi: 10.1371/journal.pone.0151470
[14] U.S. Food and Drug Administration.
Zimmer Biomet Recalls ROSA One 3.1 Brain Application Due to Error in Software.
2021.
fda.gov/medical-devices/medical-device-recalls/zimmer-biomet-recalls-rosa-one-31-brain-application-due-error-software
[15] Macnish K. Unblinking eyes: the
ethics of automating surveillance. Eth Inf Technol. 2012;14:151–67. doi:
10.1007/s10676-012-9291-0
[16] Rong G, Mendez A, Bou Assi E, Zhao B,
Sawan M. Artificial intelligence in healthcare: review and prediction case studies.
Engineering. (2020) 6:291–301. doi: 10.1016/j.eng.2019.08.015
[17] Miller DD, Brown EW. Artificial
Intelligence in medical practice: the question to the answer? Am J Med. (2018)
131:129–33. doi: 10.1016/j.amjmed.2017.10.035
[18] Gerke S, Minssen T, Yu H, et al.
Ethical and legal issues of ingestible electronic sensors. Nat Electron.
2019;2(8):329–34. doi: 10.1038/s41928-019-0290-6
[19] Greenfield, Daniel, Artificial
Intelligence in Medicine: Applications, implications, and limitations,SINT
Blog,June 19,2019,
sitn.hms.harvard.edu/flash/2019/artificial-intelligence-in-medicine-applications-implications-and-limitations/
[20] Safdar NM, Banja JD, Meltzer CC.
Ethical considerations in Artificial Intelligence. Eur J Radiol. (2020)
122:108768. doi: 10.1016/j.ejrad.2019.108768
[21] Frost, E.K., Bosward, R., Aquino,
Y.S.J. et al. Public views on ethical issues in healthcare artificial
intelligence: protocol for a scoping review. Syst Rev 11, 142 (2022). doi:
10.1186/s13643-022-02012-4
[22] Johnson SLJ. AI, machine learning,
and ethics in health care. J Leg Med. 2020; 39:427–41. doi:
10.1080/01947648.2019.1690604
[23] Markowetz A, Błaszkiewicz K, Montag
C, et al. Psycho-informatics: big data shaping modern psychometrics. Med
Hypotheses. 2014; 82(4):405–11. doi: 10.1016/j.mehy.2013.11.030.
[24] Char DS, Shah NH, Magnus D.
Implementing machine learning in health care-addressing ethical challenges. N
Engl J Med. 2018; 378(11):981–3. doi: 10.1056/NEJMp1714229
[25] Sharon T. Self-Tracking for health
and the quantified self: re-articulating autonomy, solidarity, and authenticity
in an age of personalized healthcare. Philos Technol. 2017; 30:93–121. doi:
10.1007/s13347-016-0215-5
[26] Monteith S, Glenn T. Automated
decision-making and big data: concerns for people withmentalillness. Curr
Psychiatry Rep, 2016; 18(12): 112 . doi:10.1007/s11920-016-0746-6.
[27] Howard A, Borenstein J. The ugly
truth about ourselves and our robot creations: the problem of bias and social
inequity. Sci Eng Eth. 2018; 24(5):1521–36. doi: 10.1007/s11948-017-9975-2
[28] Mooney SJ, Pejaver V. Big data in
public health: terminology, machine learning, and privacy.
AnnRevPublicHealth.2018;39(1)95-112 doi:
10.1146/annurev-publhealth-040617-014208.
[29] Senders JT, Zaki MM, Karhade AV, et
al. An introduction and overview of machine learning in neurosurgical care.
Acta Neurochir (Wien). 2018;160(1):29–38. doi: 10.1007/s00701-017-3385-8.
[30] Price W, Nicholson II. Medical AI and
contextual bias. Harv J Law Technol. 2019;33:65–116. repository.law.umich.edu/cgi/viewcontent.cgi?article=3242&context=articles
[31] Obermeyer Z, Powers B, Vogeli C,
Mullainathan S. Dissecting racial bias in an algorithm used to manage the
health of populations. Science. 2019 Oct 25;366(6464):447-453. doi:
10.1126/science.aax2342. PMID: 31649194.
[32] Howard A, Borenstein J. The ugly
truth about ourselves and our robot creations: the problem of bias and social
inequity. Sci Eng Eth. 2018;24(5):1521–36. doi: 10.1007/s11948-017-9975-2
[33] Nordling L. A fairer way forward for
AI in health care. Nature. 2019 Sep;573(7775):S103-S105. doi:
10.1038/d41586-019-02872-2. PMID: 31554993.
nature.com/articles/d41586-019-02872-2
[34] Kusner MJ, Loftus JR. The long road
to fairer algorithms. Nature. 2020 Feb;578(7793):34–6. doi: 10.1038/d41586-020-00274-3
PMid:32020122
[35] Dankwa-Mullan, I., Scheufele, E.L.,
Matheny, M.E., Quintana, Y., Chapman, W.W., Jackson, G., South, B.R. (2021). A Proposed Framework on
Integrating Health Equity and Racial Justice into the Artificial Intelligence
Development Lifecycle. Journal of Health Care for the Poor and Underserved
32(2), 300-317. doi:10.1353/hpu.2021.0065.
[36] Floridi, L. Translating principles
into practices of digital ethics: five risks of being unethical. Philos
Technol. 2019;32(2):185–93. doi : 10.1007/s13347-019-00354-x.
[37] Holzmeyer C., Beyond ‘AI for Social
Good’ (AI4SG): social transformations—not tech-fixes—for health equity.
Interdisc Sci Rev. 2021;46(1–2):94–125.
researchgate.net/publication/349884827_Beyond_'AI_for_Social_Good'_AI4SG_social_transformations-not_tech-fixes-for_health_equity
[38] Burrell J. How the machine “thinks”:
understanding opacity in machine learning algorithms. Big Data Soc. 2016. doi:
10.1177/2053951715622512
[39] Dilsizian ME, Siegel EL. Machine
Meets Biology: a Primer on Artificial Intelligence in Cardiology and Cardiac
Imaging. Curr Cardiol Rep. 2018 Oct 18;20(12):139. doi:
10.1007/s11886-018-1074-8. PMID: 30334108.
[40] Grote T, Berens P. On the ethics of
algorithmic decision-making in healthcare. J Med Ethics. 2020; 46(3):205–11.
jme.bmj.com/content/46/3/205
[41] The Economist. The World's Most
Valuable Resource is No Longer Oil, But Data. 2021.
economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data
[42] Armstrong,M., The Ethical
Implications of AI and Data in Healthcare,Health IT Answer,September 15,2023,
healthitanswers.net/the-ethical-implications-of-ai-and-data-in-healthcare/
[43] Critical Insight , 2022 Healthcare
Data Breach Report, cybersecurity.criticalinsight.com/healthcare-breach-report-h1-2022
[44] Wang C, Zhang J, Lassi N, Zhang X.
Privacy Protection in Using Artificial Intelligence for Healthcare: Chinese
Regulation in Comparative Perspective. Healthcare (Basel). 2022 Sep
27;10(10):1878. doi: 10.3390/healthcare10101878. PMID: 36292325; PMCID: PMC9601726.
[45] Farhud DD, Zokaei S. Ethical Issues
of Artificial Intelligence in Medicine and Healthcare. Iran J Public Health.
2021 Nov;50(11):i-v. doi: 10.18502/ijph.v50i11.7600. PMID: 35223619; PMCID:
PMC8826344.
[46] Amisha, Malik P, Pathania M, Rathaur
VK. Overview of artificial intelligence in medicine. J Family Med Prim Care.
2019 Jul;8(7):2328-2331. doi: 10.4103/jfmpc.jfmpc_440_19. PMID: 31463251;
PMCID: PMC6691444
[47] Rodrigues R. Legal and human rights
issues of AI: gaps, challenges and vulnerabilities. J Respons Technol. (2020)
4:100005. doi: 10.1016/j.jrt.2020.100005
[48] Challen R, Denny J, Pitt M, et al.
Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019;
28(3):231–7. doi : 10.1136/bmjqs-2018-008370
[49] Murdoch, B. Privacy and artificial
intelligence: challenges for protecting health information in a new era. BMC
Med Ethics 22, 122 (2021). doi: 10.1186/s12910-021-00687-3
[50] Khalid N, Qayyum A, Bilal M,
Al-Fuqaha A, Qadir J. Privacy-preserving artificial intelligence in healthcare:
Techniques and applications. Comput Biol Med. 2023; 158:106848. doi:
10.1016/j.compbiomed.2023.106848
[51] Berman, J.,J., Confidentiality issues
for medical data miners, Artificial Intelligence in Medicine, Volume 26, Issues
1–2, September–October 2002, Pages 25-36
sciencedirect.com/science/article/abs/pii/S0933365702000507?via%3Dihub
[52] Chaiyachati KH, Shea JA, Asch DA, Liu
M, Bellini LM, Dine CJ, et al. Assessment of inpatient time allocation among
first-year internal medicine residents using time-motion observations. JAMA Int
Med. (2019) 179:760–7. doi: 10.1001/jamainternmed.2019.0095
[53] Briganti, G., Le Moine, O., (2020)
Artificial Intelligence in Medicine: Today and Tomorrow. Front. Med. 7:27. doi:
10.3389/fmed. 2020.00027
[54] Goldfarb, Lindsay, Can AI Replace
Your Doctor?, Dimensional Insight, May 15, 2023,
dimins.com/blog/2023/05/15/can-ai-replace-doctor/
[55] Sparrow R. Killer robots. J Appl
Philos. 2007;24(1):62–77. doi:10.1111/j.1468-5930.2007.00346.x
[56] Coeckelbergh M. Artificial intelligence,
responsibility attribution, and a relational justification of explainability.
Sci Eng Eth. 2020;26(4):2051–68 doi:10.1007/s11948-019-00146-8
[57] Chung, Jason and Zink, Amanda, Hey
Watson, Can I Sue You for Malpractice? Examining the Liability of Artificial
Intelligence in Medicine (November 23, 2017). Forthcoming, Asia-Pacific Journal
of Health Law, Policy and Ethics, Available at SSRN:
papers.ssrn.com/sol3/papers.cfm?abstract_id=3076576
[58] Humanitas University,5 reasons why
Artificial Intelligence won’t replace physicians,
08/02/2022,hunimed.eu/news/5-motivi-per-cui-lintelligenza-artificiale-non-potra-sostituire-la-figura-del-medico/
[59] Mannes A. Governance, risk, and
Artificial Intelligence. AI Magazine. (2020) 41:61–9. doi: 10.1609/aimag.v41i1.5200
Niciun comentariu:
Trimiteți un comentariu