OpenAI wprowadza dedykowane rozwiązania dla sektora ochrony zdrowia

dentonet.pl 2 dni temu
Zdjęcie: OpenAI wprowadza dedykowane rozwiązania dla sektora ochrony zdrowia


OpenAI – amerykańska firma zajmująca się badaniem i wdrażaniem sztucznej inteligencji – oficjalnie zaprezentowała rozwiązanie OpenAI for Healthcare. To zestaw narzędzi AI zaprojektowany z myślą o placówkach ochrony zdrowia, w tym gabinetach stomatologicznych, który ma na celu podniesienie standardów opieki, zmniejszenie biurokracji oraz wsparcie procesów klinicznych przy zachowaniu odpowiednich standardów bezpieczeństwa danych pacjentów.

Firmy zajmujące się rozwiązaniami AI od dłuższego czasu starają się dostarczać sektorowi ochrony zdrowia – borykającemu się m.in. z niedoborami kadrowymi oraz rosnącą biurokracją – narzędzia, które pomogą w codziennej pracy, ale z zachowaniem rygorystycznych przepisów dotyczących ochrony prywatności.

Kilka dni temu premierę w tym zakresie ogłosiła OpenAI – amerykańska firma zajmująca się badaniem i wdrażaniem sztucznej inteligencji, twórca ChataGPT. W skład narzędzia OpenAI for Healthcare wchodzą m.in. specjalistyczna wersja ChatGPT, dedykowany moduł dla pacjentów oraz zaawansowane interfejsy API.

Inteligencja wspierająca klinicystów

Jak poinformowano w komunikacie, kluczowym elementem nowego pakietu jest ChatGPT for Healthcare, oparty na najnowszych modelach GPT-5. Zostały one zoptymalizowane pod kątem rozumowania klinicznego i zweryfikowane przez ponad 260 lekarzy różnych specjalności. Firma zapewnia, iż – przeciwieństwie do standardowych modeli – rozwiązanie to oferuje funkcję wyszukiwania informacji z podaniem konkretnych źródeł medycznych, od recenzowanych badań naukowych po wytyczne organizacji i towarzystw zdrowia publicznego.

W ramach ChataGPT for Healthcare dostępnych jest szereg funkcjonalności wspierających codzienną pracę kliniczną, w tym automatyczne generowanie dokumentacji, takiej jak podsumowania wizyt, zalecenia dla pacjentów czy wnioski o autoryzację wstępną. Dodatkowo, narzędzie to umożliwia zaawansowaną analizę wyników badań z podaniem przypisów do literatury, co ma ułatwiać lekarzom prowadzenie diagnostyki różnicowej w oparciu o EBM (Evidence Based Medicine).

ChatGPT Health – nowe wsparcie dla pacjenta

Równolegle z rozwiązaniami dla profesjonalistów OpenAI wprowadziła ChataGPT Health dedykowanego pacjentom. Narzędzie to pozwala im łączyć osobiste informacje o zdrowiu (z elektronicznych kartotek, Apple Health czy aplikacji takich jak MyFitnessPal) z funkcjonalnościami ChataGPT.

Jego działanie opiera się na tworzeniu spersonalizowanego profilu użytkownika w bezpiecznej, odizolowanej przestrzeni, gdzie model analizuje dane z połączonych aplikacji i plików PDF z dokumentacją medyczną. Dzięki temu pacjent może prowadzić z AI konwersację o swoich trendach zdrowotnych, np. pytając o zmiany w wynikach morfologii na przestrzeni lat lub prosząc o pomoc w przygotowaniu listy konkretnych pytań do lekarza przed zbliżającą się wizytą. System wykorzystuje zaawansowane rozumowanie, aby wyjaśniać zawiłe terminy medyczne w przystępny sposób i – jak zapewnia firma – stale monitoruje kontekst, by w razie potrzeby zasugerować natychmiastowy kontakt ze specjalistą.

Bezpieczeństwo i izolacja danych

Największym wyzwaniem przy wdrażaniu AI w medycynie zawsze była kwestia ochrony danych wrażliwych. Według zapewnień firmy, OpenAI for Healthcare oraz ChatGPT Health są wyposażone w wielowarstwowe systemy zabezpieczeń.

Dla placówek medycznych OpenAI oferuje oficjalne potwierdzenie ochrony danych (Business Associate Agreement). W wersji dla pacjentów konwersacje dotyczące zdrowia są przechowywane w oddzielnej pamięci, odizolowanej od głównych czatów i chronionej specjalnym szyfrowaniem.

Jak podkreślono, dane przesyłane w ramach rozwiązań medycznych i prozdrowotnych nie są wykorzystywane do trenowania modeli OpenAI.

Źródło: https://openai.com/pl-PL/news/

Korzystając z narzędzi opartych na sztucznej inteligencji w codziennej praktyce klinicznej nie można zapominać o związanych z tym wyzwaniach etycznych i aspektach prawnych. – Przede wszystkim należy mieć na uwadze to, żeby algorytmy, z których korzystamy, były w odpowiedni sposób zweryfikowane i przetestowane na niezależnych zbiorach danych – innych niż te, na których były uczone – mówi dr hab. n. med. Piotr Regulski, prodziekan Wydziału Lekarsko-Stomatologicznego WUM, pracownik Zakładu Radiologii Stomatologicznej i Szczękowo-Twarzowej oraz kierownik Pracowni Obrazowania Cyfrowego i Wirtualnej Rzeczywistości WUM, autor ponad 50 artykułów naukowych i wystąpień zjazdowych, który w swojej pracy naukowo-badawczej zajmuje się m.in. algorytmami sztucznej inteligencji i metodami przetwarzania obrazów medycznych.

Idź do oryginalnego materiału