Nello Utah si tenta di sopperire alla mancanza di medici di base utilizzando l’IA per fornire oltre 200 medicine tra statine, corticosteroidi o antidepressivi. Sesti (ex presidente SIMI). “La medicina è rapporto con il paziente, vi fidereste della diagnosi di una macchina?”
la Repubblica – 17 aprile 2026
Sarà una macchina e non un medico a prescrivere farmaci. Un software autorizzato a ’scegliere’ a seconda
L’obiettivo è appunto prescrivere farmaci senza il coinvolgimento del medico. Il sistema, venduto da Doctronic, spiegano gli addetti ai lavori, è progettato per condurre una “valutazione medica completa” che “rispecchia il processo decisionale clinico che seguirebbe un medico abilitato”.
Gli Usa, dunque, sono sempre più inclini a sostituire i medici di base con l’Intelligenza artificiale. E l’Europa? È l’Aifa a dettare la linea. Lo fa lanciando il modello “Medicina di precisione e appropriatezza della prescrizione farmacologica”, che integra dati clinici, genomica e Intelligenza artificiale per personalizzare le cure. L’obiettivo è gestire con maggior precisione la polifarmacoterapia negli anziani, riducendo le reazioni avverse e garantendo la sostenibilità del Sistema sanitario nazionale.
Anche se i prescrittori basati sull’intelligenza artificiale per il sistema americano non sono considerati ’medici’ autorizzati, lo Utah ha introdotto una deroga. (articolo integrale su Repubblica)
In Italia l’OMCeO Venezia organizza per il 18 aprile un convegno dal titolo “Sanità e intelligenza artificiale”. Nel presentare il convegno viene detto che L’intelligenza artificiale sta cambiando la sanità: il 54% dei professionisti già usa quella generativa per le diagnosi precoci e per ottimizzare i percorsi di cura, migliorando l’assistenza. Uno strumento dalle potenzialità enormi che, però, nasconde anche delle insidie: medici e odontoiatri devono conoscerlo e governarlo per non subirlo ed essere protagonisti attivi del processo di trasformazione.
Proprio per sostenere la formazione dei professionisti, dunque, l’OMCeO veneziano torna a organizzare un convegno sul tema dal titolo “Intelligenza artificiale in sanità: storia, aberrazioni, indicazioni”.
Il Segretario Generale FIMMG Silvestro Scotti rispondendo alle dichiarazioni del Ministro Schillaci, sollecita l’avvio immediato dell’atto di indirizzo per l’ACN 2025–2027 indicando come asse prioritario anche l’intelligenza artificiale dichiarando che:
“L’intelligenza artificiale applicata alla medicina generale deve uscire dalla fase sperimentale e diventare una componente stabile dell’ACN: supporto decisionale clinico integrato nel gestionale di studio, automazione della documentazione sanitaria, alert prescrittivi, stratificazione automatica del rischio per i pazienti cronici.
La sburocratizzazione non è una concessione: è una condizione di esercizio clinico dignitoso e di sostenibilità del sistema”.
Però, secondo un nuovo studio, i modelli linguistici di IA non forniscono una diagnosi precoce corretta in oltre l’80% dei casi, e non sono ancora sicuri per un uso clinico senza supervisione.
Secondo lo studio, l’intelligenza artificiale generativa (IA) non dispone ancora dei processi di ragionamento necessari per un uso clinico sicuro.
I chatbot basati sull’IA hanno migliorato la loro accuratezza diagnostica quando dispongono di informazioni cliniche complete, ma continuano a non formulare una diagnosi differenziale appropriata in oltre l’80% dei casi. Lo riferiscono i ricercatori di Mass General Brigham, una rete non profit di ospedali e centri di ricerca con sede a Boston e uno dei maggiori sistemi sanitari degli Stati Uniti.
«Nonostante i continui progressi, i modelli linguistici di grandi dimensioni pronti all’uso non sono pronti per un impiego clinico, senza supervisione, di livello professionale», ha dichiarato Marc Succi, coautore dello studio.
Nota:
I Large Language Models (LLM) sono sofisticati modelli di intelligenza artificiale basati su reti neurali profonde (deep learning). Addestrati su enormi quantità di dati testuali, sono in grado di comprendere, generare, riassumere e tradurre il linguaggio umano, prevedendo la parola successiva più probabile in un contesto.
“Large” (Grandi) indica l’uso di dataset vastissimi (internet, libri) e l’addestramento di miliardi di parametri, il che conferisce loro grandi capacità cognitive.
Sono la base di strumenti come ChatGPT, usati per creare contenuti, scrivere codice, rispondere a domande e analizzare testi.
Riconoscono contesti complessi e sfumature semantiche meglio dei tradizionali algoritmi di machine learning.
In sintesi, sono strumenti di AI generativa specializzati nell’elaborazione del linguaggio naturale (NLP).
Notizie correlate: OpenAI lancia un modello AI per la biologia e la ricerca farmaceutica
