Mondo

CHATGPT non sostituisce gli operatori sanitari. Aii Ai Ai are sono alla sezione Alling – I computer usano i rischi

È essenziale dire che non è AI o che non è un giudizio clinico, un’esperienza medica o un contatto umano. La diagnosi è una parte importante della legge medica, che include non solo dati oggettivi, ma anche commenti contestuali, un uditivo attivo ed empatia “, ha affermato Carlos Cortes Lusa.

Ha detto il presidente Ia dovrebbe essere visto come uno strumento di supporto alle decisioni cliniche e non come agente diagnostico autonomo.

Carlos Cortes insiste sul fatto che gli strumenti di intelligenza artificiale non sono idonei a fare diagnosi “Mancanza di forti prove scientifiche, meccanismi di certificazione difficili e trasparenza algoritmica soprattutto, che consente ai medici di comprendere e fidarsi delle decisioni prescritte dai medici” “.

L’intelligenza artificiale dell’Ordine dei medici Commissione ha sottolineato “L’adozione dell’IA nella medicina Shadam dovrebbe essere fatta solo sulla base della convalida scientifica, con spiegazione, responsabilità e supervisione medica continua. La connessione AI nelle correnti cliniche richiede rispetto per principi morali come autonomia, non -malfis e giustizia. “

Il presidente ha dichiarato nei casi di diagnosi sbagliati “Le conseguenze sono molto gravi: iniziare abbastanza trattamenti, intensificare gli stati clinici, esposizione a trattamenti non necessari o inappropriati, sfuggire alla sofferenza e alla perdita della vita umana”.Non si assumono la responsabilità morale.

Inoltre, il La mancanza di spiegazioni in molti algoritmi rende difficile rilevare errori, ottenere un limite di responsabilità e minacciare la fiducia Malato nei medici e in medicina.

Ha anche detto l’ufficiale Non ci sono casi in cui l’uso AI in Portogallo provoca conseguenze cliniche rilevantiNon c’è confusione in assenza di casi.

“Richiede la sorveglianza, la capacità di audit, i sistemi di segnalazione strutturale e la regolamentazione proattiva per l’implementazione di tecnologie che vengono interrotte”Questo perché non esiste un’organizzazione dedicata alla supervisione dell’IA nel paese, che è “sicurezza clinica, direttamente alla malattia e nel campo dell’integrità del diritto medico”, ha concluso il presidente.

Gli annunci di Bastonary sono arrivati ​​dopo che la piattaforma spagnola di Daman è stata avvertita Diagnosi per i modelli di intelligenza artificiale da persone che chiedono siti Web e testimonianze nei social network.

“Ho chiesto a Chatgt di leggere la mia mano e ha rilevato il cancro della pelle” o “una donna con” Cancro alla diagnostica di Chatgpt “ha affermato che i medici possono trasmettere sui social network un anno prima di” trasmettere sui social network “.

Tuttavia, tuttavia, I risultati dei chatbot AI sono potenziali, i dati di allenamento potrebbero non essere affidabili e non possono seguire un medico che fa un medicoRappresenta la piattaforma.

Source link

Articoli Correlati

Pulsante per tornare all'inizio