USMF logo

Institutional Repository in Medical Sciences
of Nicolae Testemitanu State University of Medicine and Pharmacy
of the Republic of Moldova
(IRMS – Nicolae Testemitanu SUMPh)

Biblioteca Stiintifica Medicala
DSpace

University homepage  |  Library homepage

 
 
Please use this identifier to cite or link to this item: http://hdl.handle.net/20.500.12710/22504
Title: Riscuri etice, medicale şi juridice ale aplicării inteligentei artificiale în medicină
Authors: Pisarenco, Constantin
Pisarenco, Serghei
Issue Date: 2022
Publisher: Universitatea de Stat de Medicină şi Farmacie "Nicolae Testemiţanu" din Republica Moldova
Citation: PISARENCO, Constantin, PISARENCO, Serghei. Riscuri etice, medicale şi juridice ale aplicării inteligentei artificiale în medicină: [poster]. In: Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie 2022: culegere de postere electronice. 2022, p. 67.
Abstract: Introducere. Introducerea sistemelor de inteligenţă artificială (IA) în medicină este una dintre cele mai importante tendinţe moderne în asistenţa medicală mondială. Cu ajutorul IA în medicina aplicate următoarele procese inovatoare: metode automate de diagnosticare; sisteme de recunoaştere a vorbirii si înţelegere a limbajului natural; sisteme de analiză si predicţie a evenimentelor; sisteme de clasificare automată si reconciliere a informaţiilor; chatbot-uri automate pentru asistenţa pacienţilor; dezvoltarea roboticii si mecatronicii. În prezent, începe cursa pentru superioritatea ţărilor pentru dominaţie pe piaţa inteligenţei artificiale, inclusiv în medicină. Scopul lucrării. Să evidenţieze baza, riscurile etice, medicale şi juridice ale aplicării medicale a IA. Material si Metode. Analiza reglementărilor, actelor juridice, publicaţiilor ştiinţifice si practicii utilizării IA în medicină (radiologie, chirurgie etc.). Evaluarea riscurilor asociate cu principiile morale care stau la baza deciziilor luate de IA, precum si comportamentul neetic si neadecvat faţă de oameni. Rezultate. Sistemele care utilizează tehnologii de inteligenţă artificială devin din ce în ce mai autonome în ceea ce priveşte complexitatea sarcinilor pe care le pot îndeplini. Majoritatea oamenilor subestimează autonomia reală a unor astfel de sisteme. Ei pot învăţa din experienţă si pot efectua acţiuni care nu au fost intenţionate de creatorii lor. Dezvoltarea si implementarea IA este asociată cu posibilitatea unor consecinţe ambigue (încălcarea confidenţialităţii, posibilă discriminare, stratificare socială), cu riscul unor acţiuni ilegale cauzate de o eroare în crearea IA, modificarea IA ca urmare a unor acţiuni neautorizate, acces la sistemul său, programarea din start cu rea credinţe a IA. În ţările UE, între timp, problema acordării IA a statutului de „persoană electronică" si personalitate juridică este în curs de studiu. În ţările CSI, a căror dreptul penal se bazează pe o abordare antropocentrică, răspunde doar persoana fizica. Concluzii. Aplicarea IA pentru diagnosticarea bolilor, elaborarea tratamentului personalizat si monitorizarea pacientului necesită o reglementare etică si legală care să minimizeze riscurile utilizării acestuia. Este necesar să se consolideze obligaţia dezvoltatorilor si a altor persoane împuternicite de a lua toate măsurile necesare pentru a asigura interesele unei persoane aflate în procesul de funcţionare a IA si a dezvolta un sistem de norme care să asigure îndeplinirea acestei obligaţii.
metadata.dc.relation.ispartof: Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 2022
URI: https://conferinta.usmf.md/wp-content/uploads/culegere_de_postere_2022.pdf
http://repository.usmf.md/handle/20.500.12710/22504
Appears in Collections:Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie, 2022: Culegere de postere



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

 

Valid XHTML 1.0! DSpace Software Copyright © 2002-2013  Duraspace - Feedback