Is AI able to imitate human communication in the medical field, with particular attention to communicating poor prognosis? We generated responses to various prompts to evaluate their accuracy and human perception. They were transformed into cards, then evaluated by doctors with experience in different fields. The results, unexpectedly, demonstrate that AI can produce surprisingly realistic responses, indistinguishable from human ones even for experienced professionals. Furthermore, if on the one hand, AI manages to embody a good and compassionate doctor, on the other it can also embody a sadistic and ruthless one.

L’AI è in grado di imitare la comunicazione umana in ambito medico, con particolare attenzione alla comunicazione della prognosi infausta? Abbiamo generato risposte a vari prompt per valutarne l’accuratezza e la percezione umana. Sono state trasformate in schede, poi valutate da medici con esperienza in campi diversi. I risultati, inaspettatamente, dimostrano che l’AI può produrre risposte sorprendentemente realistiche, indistinguibili da quelle umane anche per professionisti esperti. Inoltre, se da un lato, l’AI riesce ad impersonificare un medico buono e compassionevole dall’altro può anche incarnarne uno sadico e spietato

IA e Comunicazione della Prognosi Infausta. Un’analisi della realisticità e delle implicazioni pedagogiche. Artificial Intelligence and poor prognosis. An analysis of realism and pedagogical implications

Claudio Pensieri
Writing – Original Draft Preparation
2024-01-01

Abstract

Is AI able to imitate human communication in the medical field, with particular attention to communicating poor prognosis? We generated responses to various prompts to evaluate their accuracy and human perception. They were transformed into cards, then evaluated by doctors with experience in different fields. The results, unexpectedly, demonstrate that AI can produce surprisingly realistic responses, indistinguishable from human ones even for experienced professionals. Furthermore, if on the one hand, AI manages to embody a good and compassionate doctor, on the other it can also embody a sadistic and ruthless one.
2024
L’AI è in grado di imitare la comunicazione umana in ambito medico, con particolare attenzione alla comunicazione della prognosi infausta? Abbiamo generato risposte a vari prompt per valutarne l’accuratezza e la percezione umana. Sono state trasformate in schede, poi valutate da medici con esperienza in campi diversi. I risultati, inaspettatamente, dimostrano che l’AI può produrre risposte sorprendentemente realistiche, indistinguibili da quelle umane anche per professionisti esperti. Inoltre, se da un lato, l’AI riesce ad impersonificare un medico buono e compassionevole dall’altro può anche incarnarne uno sadico e spietato
interpersonal communication, bioethics, oncology, patient education
File in questo prodotto:
File Dimensione Formato  
2024_MHN_Pensieri_IA-PrognosiInfausta.pdf

non disponibili

Tipologia: Versione Editoriale (PDF)
Licenza: Copyright dell'editore
Dimensione 480.7 kB
Formato Adobe PDF
480.7 kB Adobe PDF   Visualizza/Apri   Richiedi una copia

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12610/83883
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact