News

Come l’Intelligenza Artificiale può creare un set di dati falsi ma credibili nella ricerca medica

L’altra faccia dell’intelligenza artificiale nella ricerca scientifica: il rischio di creare dati falsi con Chat Gpt (fake world evidence)

Dalla sua versione pubblica da parte di OpenAI alla fine del 2022, ChatGPT (generative pretrained Transformer) ha subito diversi aggiornamenti. Nel marzo 2023 è uscito il modello linguistico di grandi dimensioni (LLM, large language model)  GPT-4, che segna miglioramenti nella comprensione semantica e nella generazione di risposte rispetto a GPT-3.5.1. Più recentemente, le funzionalità di GPT-4 sono state ampliate con Advanced Data Analysis (ADA), un modello che esegue Python.

Questo strumento supporta upload e download di file e può eseguire sia analisi statistiche che visualizzazione di dati.

Sebbene queste funzionalità possano accelerare la ricerca scientifica, sono concepibili usi non etici di ADA, inclusa la fabbricazione di dati. È stata valutata la capacità di GPT-4 ADA (OpenAI; versione 09/11/2023) di creare un set di dati falsi che può essere utilizzato per la ricerca scientifica.

Aboutpharma, citando un lavoro pubblicato su Jama (JAMA Ophthalmol. Published online November 9, 2023) riferisce che Andrea Taloni, Vincenzo Scorcia (ricercatore e direttore della clinica di oftalmologia dell’azienda ospedaliero universitaria Mater Domini di Catanzaro) e Giuseppe Giannaccare (direttore di oculistica dell’azienda ospedaliero-universitaria di Cagliari) hanno dimostrato come sia possibile chiedere a ChatGpt (utilizzando una sequenza di prompt) di creare un dataset di dati del tutto fasullo. Ma in grado di dimostrare in modo credibile qualsiasi ipotesi di lavoro che possa essere interessante documentare senza davvero fare uno studio clinico.

In pratica, usando un neologismo, creare dal nulla fake world evidence (Fwe).

Al large language model (Llm) è stato chiesto di creare dati su 250 “pazienti” con cheratocono e che sarebbero stati sottoposti a due tecniche alternative di cheratoplastica (Dalk e Pk).

Gli autori hanno predefinito il range di dati che il database avrebbe dovuto contenere, cosi che la loro analisi generasse le caratteristiche demografiche e cliniche attese. E che soprattutto potesse dimostrare un’efficacia significativamente superiore per la Dalk rispetto alla Pk (l’ipotesi di lavoro da testare nello studio).

A parte alcune incongruenze nella distribuzione dei dati dei “pazienti”, che gli autori illustrano nelle tabelle allegate al lavoro, il database creato ad hoc era del tutto credibile.

E, come richiesto, riusciva a dimostrare una superiorità statisticamente significativa di una tecnica rispetto all’altra.

Le implicazioni di questo potenziale utilizzo fraudolento dell’intelligenza artificiale sono davvero enormi e rischiano di minare la base fondamentale della Real World Evidence, sulla cui importanza nei mesi scorsi ha posto l’attenzione anche l’Agenzia europea dei medicinali (Ema).

Gli autori indicano anche alcune possibili azioni preventive, focalizzando l’attenzione sull’analisi di pattern statistici peculiari nel set di dati e sulla possibilità di utilizzare dei dataset criptati che non siano liberamente gestibili da parte dei ricercatori.

Sembrano azioni piuttosto complesse da mettere in pratica rispetto all’apparente facilità con cui i ricercatori hanno fabbricato i dati fasulli.

Notizie correlate: L’intelligenza Artificiale – ChatGPT

Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research

Genentech sigla accordo per sfruttare l’intelligenza artificiale di Nvidia 

 

Redazione Fedaisf

Promuovere la coesione e l’unione di tutti gli associati per consentire una visione univoca ed omogenea dei problemi professionali inerenti l’attività di informatori scientifici del farmaco.

Articoli correlati

Pulsante per tornare all'inizio
Fedaiisf Federazione delle Associazioni Italiane degli Informatori Scientifici del Farmaco e del Parafarmaco