|
- IRMS - Nicolae Testemitanu SUMPh
- 1. COLECȚIA INSTITUȚIONALĂ
- MATERIALE ALE CONFERINȚELOR ȘTIINȚIFICE
- Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 2022
- Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie, 2022: Culegere de postere
Please use this identifier to cite or link to this item:
http://hdl.handle.net/20.500.12710/22504
Title: | Riscuri etice, medicale şi juridice ale aplicării inteligentei artificiale în medicină |
Authors: | Pisarenco, Constantin Pisarenco, Serghei |
Issue Date: | 2022 |
Publisher: | Universitatea de Stat de Medicină şi Farmacie "Nicolae Testemiţanu" din Republica Moldova |
Citation: | PISARENCO, Constantin, PISARENCO, Serghei. Riscuri etice, medicale şi juridice ale aplicării inteligentei artificiale în medicină: [poster]. In: Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie 2022: culegere de postere electronice. 2022, p. 67. |
Abstract: | Introducere.
Introducerea sistemelor de inteligenţă artificială (IA) în medicină este una dintre cele mai importante tendinţe moderne în asistenţa medicală mondială. Cu ajutorul IA în medicina aplicate următoarele procese inovatoare: metode automate de diagnosticare; sisteme de
recunoaştere a vorbirii si înţelegere a limbajului natural; sisteme de analiză si predicţie a evenimentelor; sisteme de clasificare automată si reconciliere a informaţiilor; chatbot-uri automate pentru asistenţa pacienţilor; dezvoltarea roboticii si mecatronicii. În prezent, începe cursa pentru superioritatea ţărilor pentru dominaţie pe piaţa inteligenţei artificiale, inclusiv în medicină.
Scopul lucrării.
Să evidenţieze baza, riscurile etice, medicale şi juridice ale aplicării medicale a IA.
Material si Metode.
Analiza reglementărilor, actelor juridice, publicaţiilor ştiinţifice si practicii utilizării IA în medicină (radiologie, chirurgie etc.). Evaluarea riscurilor asociate cu principiile morale care stau la baza deciziilor luate de IA, precum si comportamentul neetic si neadecvat faţă de oameni.
Rezultate.
Sistemele care utilizează tehnologii de inteligenţă artificială devin din ce în ce mai autonome în ceea ce priveşte complexitatea sarcinilor pe care le pot îndeplini. Majoritatea oamenilor subestimează autonomia reală a unor astfel de sisteme. Ei pot învăţa din experienţă si pot efectua acţiuni care nu au fost intenţionate de creatorii lor.
Dezvoltarea si implementarea IA este asociată cu posibilitatea unor consecinţe ambigue (încălcarea confidenţialităţii, posibilă discriminare, stratificare socială), cu riscul unor acţiuni ilegale cauzate de o eroare în crearea IA, modificarea IA ca urmare a unor acţiuni neautorizate, acces la sistemul său, programarea din start cu rea credinţe a IA. În ţările UE, între timp, problema acordării IA a statutului de „persoană electronică" si personalitate juridică este în curs de studiu. În ţările CSI, a căror dreptul penal se bazează pe o abordare antropocentrică, răspunde doar persoana fizica.
Concluzii.
Aplicarea IA pentru diagnosticarea bolilor, elaborarea tratamentului personalizat si monitorizarea pacientului necesită o reglementare etică si legală care să minimizeze riscurile utilizării acestuia. Este necesar să se consolideze obligaţia dezvoltatorilor si a altor persoane împuternicite de a lua toate măsurile necesare pentru a asigura interesele unei persoane aflate în procesul de funcţionare a IA si a dezvolta un sistem de norme care să asigure îndeplinirea acestei obligaţii. |
metadata.dc.relation.ispartof: | Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 2022 |
URI: | https://conferinta.usmf.md/wp-content/uploads/culegere_de_postere_2022.pdf http://repository.usmf.md/handle/20.500.12710/22504 |
Appears in Collections: | Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie, 2022: Culegere de postere
|
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
|