Home > Intelligenza artificiale e Medicina, lo studio di Monasterio per la sicurezza dei dati

Intelligenza artificiale e Medicina, lo studio di Monasterio per la sicurezza dei dati

Intelligenza  Artificiale (IA) e Medicina, un binomio sempre più stretto su cui anche Monasterio sta concentrando ricerche e studi con particolare attenzione alla  sicurezza dei sistemi informatici utilizzati per la diagnosi e il trattamento.
Monasterio, all’interno del progetto europeo di ricerca KINAITICS, sta, infatti, lavorando allo sviluppo di strumenti di difesa e rilevamento di attacchi informatici  che siano in grado di aumentare la resilienza dei modelli di intelligenza artificiale destinati alla cura, migliorandone anche le prestazioni globali. Questa funzionalità di sicurezza è un requisito specifico nel settore sanitario, dove i sistemi utilizzati, essendo dispositivi medici, devono essere privi di errori e sicuri.

L’assistenza sanitaria è, infatti,  un ecosistema complesso in cui i software sono strettamente integrati con tecnologia, infrastrutture e clinica. Il miglioramento delle applicazioni sanitarie, utilizzando metodi dell’intelligenza artificiale, è un campo in rapida espansione con numerosi studi e su cui molte aziende del settore medico stanno investendo producendo strumenti diagnostici basati sull’IA, certificati anche come dispositivi medici. Nell’ottobre 2023 l’Organizzazione Mondiale della Sanità (OMS) ha pubblicato un nuovo documento in cui sono elencate le principali considerazioni sull’Intelligenza Artificiale applicata alla salute. La pubblicazione sottolinea l’importanza di stabilire la sicurezza e l’efficacia dei sistemi di Intelligenza Artificiale, rendendoli rapidamente disponibili e promuovendo il dialogo tra le parti interessate, inclusi sviluppatori, enti regolatori, produttori, operatori sanitari e pazienti.
Tra i diversi approcci all’Intelligenza Artificiale, nel campo dell’assistenza sanitaria, è emerso come una potente tecnologia il deep learning (metodo che “insegna” ai computer a elaborare i dati in un modo che si ispira al cervello umano). Il deep learning  offre nuove possibilità per migliorare il supporto per la diagnosi e il monitoraggio dei pazienti negli ospedali e nelle strutture di assistenza domiciliare. Le maturità tecniche e metodologiche delle varie aree mediche sono diverse: la radiologia è un esempio dei campi di applicazione più avanzati in sanità aventi come fonte dati immagini, mentre la Cartella Clinica Elettronica (CCE) è un altro esempio avente come fonte testi/dati numerici.

Il deep learning  utilizza reti neurali con più livelli per elaborare e analizzare dati complessi. Nel contesto dell’assistenza sanitaria, i modelli di deep learning hanno mostrato molti risultati in campi di imaging medico quali la classificazione, la segmentazione e il rilevamento delle immagini. Questi algoritmi possono essere addestrati su set di dati di grandi dimensioni per apprendere modelli e caratteristiche che aiutino nella diagnosi e nel monitoraggio. Nella elaborazione delle immagini mediche è necessario l’addestramento di modelli di deep learning per identificare e classificare le patologie a partire da diversi tipi di immagini mediche, come raggi X, scansioni TAC, risonanza magnetica ed ultrasuoni. Utilizzando grandi quantità di dati annotati, gli algoritmi di deep learning possono imparare a riconoscere modelli e anomalie che potrebbero essere indicativi di specifiche condizioni mediche e patologie. Sebbene il deep learning offra un immenso potenziale nel settore sanitario, non è privo di vulnerabilità. Ecco quindi il prezioso lavoro di Monasterio sulla sicurezza.

Quando si utilizzano dati sanitari per la formazione, i sistemi di Intelligenza Artificiale hanno accesso a informazioni personali sensibili e ciò richiede solidi quadri giuridici e normativi per salvaguardare la privacy, la sicurezza e l’integrità. Inoltre, i modelli di IA utilizzati per la classificazione delle immagini mediche sono suscettibili agli attacchi informatici, soprattutto durante la fase di addestramento o rinforzo. L’attacco può spingere il modello IA a riconoscere risultati diversi o, nell’uso clinico, ad aggiungere o rimuovere risultati nelle immagini per alterare la diagnosi finale, producendo infine un danno per il paziente. La protezione informatica riveste quindi una enorme importanza nello sviluppo di strumenti diagnostico/terapeutici basati sull’IA. E Monasterio si conferma  all’avanguardia, anche su questo fronte.

Healthcare is a complex ecosystem or ‘socio-technical system’ environment where the software is tightly integrated with other systems, technologies, infrastructure, and domains and where it is configured to support local clinical and business processes. Improving healthcare applications and supporting decision-making for medical professionals using methods from AI is a rapidly expanding field with numerous studies producing AI models, and many companies are investing in medial field producing diagnostic tools based on AI, also certified as medical devices.

In October 2023 the World Health Organization (WHO) has published a new paper listing the main regulatory considerations on AI applied to health. The publication highlights the importance of establishing the safety and effectiveness of AI systems, quickly making suitable systems available to those who need them, and promoting dialogue between stakeholders, including developers, regulators, manufacturers, healthcare professionals and patients.

Among the different approach in AI, Deep learning has emerged as a powerful technology in the field of healthcare, offering new possibilities for improving the support for diagnosis and monitoring of patients in hospitals and homecare settings. 

The technical and methodological maturity of the different medical areas are various: radiology is an example of the more advanced fields of application in healthcare having images as data source, while Electronic Health Record (EHR) is another example having texts/numerical data as source and expressing a wider potential in healthcare processes innovation.

Deep learning refers to a branch of artificial intelligence that utilizes neural networks with multiple layers to process and analyze complex data. In the context of healthcare, deep learning algorithms have shown many results in medical imaging tasks such as image classification, segmentation, and detection. These algorithms can be trained on large datasets to learn patterns and features that aid in accurate diagnosis and monitoring of various conditions. 

One of the key applications where deep learning in healthcare expresses its potential is medical image classification. This involves training deep learning models to identify and categorize different types of medical images, such as X-rays, CT scans, MRIs, and ultrasounds. By utilizing vast amounts of annotated data, deep learning algorithms can learn to recognize patterns and abnormalities that may be indicative of specific medical conditions. 

While deep learning offers immense potential in healthcare, it is not without its vulnerabilities. 

When using health data for training, AI systems have access to sensitive personal information, and this requires robust legal and regulatory frameworks to safeguard privacy, security and integrity. Furthermore AI models used for medical image classification are susceptible to cyberattacks, especially during the training or reinforcement phase, applied to finalize and enhance model performance. The attack can drive the model to recognize different patterns and results, or, in the clinical use, add or remove findings in the images to alter the final diagnosis, producing eventually a patient’s harm.

KINAITICS focus on the definition and development of possible attack strategies, also based on the application of AI, in order to develop defense and detection tools capable to enhance the resiliency of AI models used in the medical field, improving at the same time their global performances. This security feature is a specific requirement in healthcare, where each IT system used for diagnosis or treatment needs to be a medical device, and, as such, virtually error-free.

Sostienici con il tuo

5X1000

al codice fiscale

93062260505