Seleziona la lingua

Italian

Down Icon

Seleziona Paese

America

Down Icon

Lezioni apprese dal rapporto di ricerca sull'intelligenza artificiale di CDW

Lezioni apprese dal rapporto di ricerca sull'intelligenza artificiale di CDW
1. Risolvere i problemi invece di implementare nuovi strumenti per il loro stesso bene

Le organizzazioni potrebbero sentirsi spinte a provare qualcosa solo per l'entusiasmo generale. Dovresti resistere alla tentazione. Piuttosto, sii chiaro sul problema da risolvere e su come l'IA si inserirà in questo contesto .

Potrebbero esserci delle implementazioni semplici da cui iniziare, tramite funzionalità o caratteristiche presenti nelle soluzioni che la tua organizzazione sta già utilizzando, ad esempio all'interno di una suite di software di produttività o di un sistema di cartelle cliniche elettroniche .

Un'altra area problematica potrebbe essere quella delle attività amministrative ripetitive che trarrebbero beneficio dall'automazione. Uno dei motivi per cui gli strumenti di ascolto ambientale hanno suscitato un interesse costante è l'esigenza delle organizzazioni di ridurre il carico di lavoro dei medici e mitigare il burnout. Come possono i sistemi sanitari ridurre il "tempo in pigiama" dei medici in modo da poter recuperare le relazioni con i pazienti?

LEGGI TUTTO: Sfrutta i dati e l'intelligenza artificiale per ottenere risultati sanitari migliori.

2. In un contesto di incertezza normativa, avere una solida struttura di governance dell'IA

Con il miglioramento degli algoritmi e la continua evoluzione delle risposte normative, le organizzazioni sanitarie necessitano di agilità e stabilità nella propria struttura di governance dell'IA . E con requisiti che possono variare da stato a stato, un approccio multidisciplinare è fondamentale per stare al passo con i cambiamenti.

Creare gruppi di lavoro adeguati con la giusta rappresentanza delle parti interessate per porre le domande giuste sui potenziali casi d'uso, l'esperienza dell'utente finale, il riconoscimento e la mitigazione dei rischi, le preoccupazioni etiche, i pregiudizi algoritmici, la conformità e la qualità dei dati.

È necessario considerare anche le considerazioni infrastrutturali. Quanto è pronta la vostra organizzazione ad adottare più soluzioni di intelligenza artificiale ? I vostri team possiedono le competenze adeguate? Avete messo in sicurezza il vostro ambiente? Ci sono considerazioni da fare per i carichi di lavoro on-premise rispetto a quelli che dovrebbero essere trasferiti nel cloud ? Le organizzazioni dovranno definire delle landing zone e potrebbero adottare strategie diverse per quanto riguarda l'utilizzo delle risorse di elaborazione e storage .

ESPLORA: Come dovrebbero le organizzazioni sanitarie orientarsi nella valutazione e nell'implementazione dell'intelligenza artificiale?

3. Mantenere la sicurezza dei dati e la privacy in primo piano

La governance dei dati va di pari passo con la governance dell'IA , poiché la maggior parte delle soluzioni basate sull'IA richiede dati di alta qualità, che a questo punto rappresentano una posta in gioco fondamentale. Ciò richiede anche strategie per proteggere tali dati.

È inoltre necessaria una maggiore trasparenza in alcune delle soluzioni disponibili, in modo che le organizzazioni possano valutare adeguatamente se una soluzione soddisferà i requisiti normativi. La trasparenza è fondamentale, poiché esiste un rischio reale se una soluzione di IA fornisce previsioni errate o utilizza dati inadeguati. Un approccio univoco all'IA in ambito sanitario non è semplicemente possibile, e probabilmente sarà ancora necessario il discernimento umano o la partecipazione di un essere umano per garantire che i risultati non causino danni.

Questo articolo fa parte della serie di blog MonITor di HealthTech .

healthtechmagazine

healthtechmagazine

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow