|
- IRMS - Nicolae Testemitanu SUMPh
- 1. COLECȚIA INSTITUȚIONALĂ
- MATERIALE ALE CONFERINȚELOR ȘTIINȚIFICE
- Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 2022
- Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie, 2022: Culegere de postere
Please use this identifier to cite or link to this item:
http://hdl.handle.net/20.500.12710/22162
Title: | Riscuri etice, medicale şi juridice ale aplicării inteligenței artificiale în medicină |
Authors: | Pisarenco, Serghei Pisarenco, Constantin |
Issue Date: | 2022 |
Publisher: | Universitatea de Stat de Medicină şi Farmacie "Nicolae Testemiţanu" din Republica Moldova |
Citation: | PISARENCO, Serghei, PISARENCO, Constantin. Riscuri etice, medicale şi juridice ale aplicării inteligenței artificiale în medicină: [poster]. In: Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie 2022: culegere de postere electronice. 2022, p. 69. |
Abstract: | Introducere. Introducerea sistemelor de (IA) este una dintre cele mai importante tendințe moderne în asistența medicală mondială . Cu ajutorul IA în medicina aplicate următoarele procese inovatoare: metode automate de diagnosticare; sisteme de recunoaștere a vorbirii și înțelegerii a limbajului natural; sisteme de analiză și predicție a evenimentelor; sisteme de clasificare automată și reconciliere a informațiilor ; chatbot-uri automate pentru asistența pacienților ; dezvoltarea roboticii mecatronicii. În prezent, începe cursa pentru superioritatea țărilor pentru dominație pe piața inteligenței artificiale, inclusiv în medicină.
Scopul lucrării. Să evidențieze baza, riscurile etice, medicale și juridice ale aplicării medicale a IA.
Material și Metode.
Analiza reglementărilor, actelor juridice, publicațiilor științifice și practicii utilizării IA în medicină (radiologie, chirurgie etc.). Evaluarea
riscurilor asociate cu principiile morale care stau la baza deciziilor luate
de IA, precum comportamentul neetic și neadecvat față de oameni.
Rezultate. Sistemele care utilizează tehnologii de inteligență artificială devin din ce ce mai autonome în ceea ce privește complexitatea sarcinilor pe care le pot îndeplini . Majoritatea oamenilor subestimează autonomia reală a unor astfel de sisteme. Ei pot învăța din experiență și pot efectua acțiuni care nu au fost intenționate de creatorii lor. Dezvoltarea și implementarea IA este asociată cu posibilitatea unor consecințe ambigue (discriminare, stratificare socială) cu riscul unor acțiuni ilegale cauzate de o eroare crearea IA, modificarea IA ca urmare a unor acțiuni neautorizate, acces la sistemul său, programarea din start cu rea credințe a IA. În țările UE, între timp, problema acordării IA a statutului de ”persoană electronică” și personalitate juridică este curs de studiu. În țările CSI, a căror
dreptul penal se bazează pe o abordare antropocentrică, răspunde doar persoana fizică.
Concluzii. Aplicarea IA pentru diagnosticarea bolilor, elaborarea tratamentului personalizat și monitorizarea pacientului necesită o reglementare etică și legală care minimizeze riscurile utilizării acestuia. Este necesar să se consolideze obligația dezvoltatorilor și a altor persoane împuternicite de a lua toate măsurile necesare pentru a asigura interesele unei persoane aflate în procesul de funcționare a IA și a dezvolta un sistem de norme care să asigure îndeplinirea acestei obligații . |
metadata.dc.relation.ispartof: | Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 2022 |
URI: | https://conferinta.usmf.md/wp-content/uploads/culegere_de_postere_2022.pdf http://repository.usmf.md/handle/20.500.12710/22162 |
Appears in Collections: | Conferinţa ştiinţifică anuală "Cercetarea în biomedicină și sănătate: calitate, excelență și performanță", 19-21 octombrie, 2022: Culegere de postere
|
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
|