6 wytycznych dotyczących bezpieczeństwa sztucznej inteligencji dla organizacji opieki zdrowotnej

Aby zabezpieczyć sztuczną inteligencję w szpitalach, Pete Johnson, dyrektor ds. technologii w dziedzinie sztucznej inteligencji w CDW , zaleca korzystanie z wewnętrznego rozwiązania, które pozwala lekarzom i innym pracownikom eksperymentować z aplikacją do czatu opartą na sztucznej inteligencji bez ujawniania danych publicznie. Organizacje mogą również korzystać z modelu publicznego, który zapewnia odpowiednie zabezpieczenia prywatności.
„Wszyscy giganci z Wielkiej Trójki – Amazon , Microsoft iGoogle – mają w swoich umowach o ochronie danych zapis, że nie będą wykorzystywać żadnych treści z twoich wiadomości błyskawicznych do ponownego trenowania modeli” – mówi Johnson. „W ten sposób jesteś chroniony, nawet jeśli nie masz lokalnego programu AI. Jeśli korzystasz z niego w chmurze, umowa o ochronie danych gwarantuje, że nie będą wykorzystywać twoich danych do ponownego trenowania modeli”.
2. Ustal plan działania na wypadek atakuPlan działania powinien zawierać szczegółowe informacje o tym, co zrobić w przypadku naruszenia bezpieczeństwa danych lub rozsyłania masowych wiadomości e-mail typu phishing w ramach próby oszustwa finansowego.
„Niezwykle ważne jest, aby specjaliści IT dokładnie rozumieli, czym są te nowe powierzchnie ataków i jak wyglądają, a następnie zaczęli budować ramy postępowania w tym zakresie” – mówi Hawking. „Obejmuje to wszystko – sprzęt, oprogramowanie i rzeczywistą architekturę IT – ale także polityki i regulacje mające na celu rozwiązanie tych problemów”.
3. Podejmuj małe kroki w kierunku wdrożenia sztucznej inteligencjiOrganizacje opieki zdrowotnej, eksperymentując ze sztuczną inteligencją, powinny zacząć od małych kroków. Mogą na przykład wykorzystać nasłuchiwanie otoczenia i inteligentną dokumentację, aby odciążyć lekarzy i klinicystów.
„Nie udostępniaj całego swojego zasobu danych jakiemuś botowi AI. Zamiast tego, bądź bardzo precyzyjny w kwestii problemów, które próbujesz rozwiązać” – mówi Johnson.
4. Korzystaj z kont organizacji za pomocą narzędzi AIHawking ostrzega przed korzystaniem z prywatnych kont e-mail, aby uniknąć tworzenia punktów dostępu do udostępnianych danych, które mogłyby zostać wykorzystane do trenowania modeli bez zgody.
5. Korzystaj z narzędzi Vet AI niezależnie od tego, gdzie są używaneHawking zaleca również organizacjom utworzenie zespołu nadzorującego, który będzie weryfikował narzędzia AI. W skład zespołu mogłyby wchodzić zainteresowane strony, takie jak dział IT, lekarze, a nawet rzecznicy pacjentów.
„Nie chodzi o to, żeby całkowicie zablokować sztuczną inteligencję, ale o to, żeby zrozumieć, co jest używane i dlaczego” – mówi Hawking.
DALEJ: Strategie zarządzania danymi AI, które pomogą Ci osiągnąć sukces.
6. Przeprowadź kompleksową ocenę ryzyka i pełny audytDokładna ocena ryzyka pozwala organizacjom opieki zdrowotnej zidentyfikować ryzyka związane z przestrzeganiem przepisów oraz opracować zasady i procedury dotyczące wykorzystania sztucznej inteligencji generatywnej .
„W ramach audytu sztucznej inteligencji niezwykle ważne jest uzyskanie właściwego obrazu tego, jak to wszystko się dzieje” – mówi Hawking. „To punkt wyjścia do dobrego zarządzania”.
healthtechmagazine