Tworzenie bloków Gutenberg z użyciem ChatGPT.

Zobacz kurs

Podstawy AWS.

Automatyzacja procesów z Make.com

Nowy plugin Secure Custom Fields i konflikt na horyzoncie

Nowy plugin Secure Custom Fields i konflikt na horyzoncie

Przyszłość projektowania w WordPressie: Blokowe rewolucje i wizje Franka Kleina

Przyszłość projektowania w WordPressie: Blokowe rewolucje i wizje Franka Kleina

Optymalizacja obrazów w WordPress: jak przyspieszyć witrynę i poprawić jakość?

Optymalizacja obrazów w WordPress: jak przyspieszyć witrynę i poprawić jakość?

Najlepsze wtyczki do sprzedaży biletów na WordPressie

Najlepsze wtyczki do sprzedaży biletów na WordPressie

Odkryj Interactivity API w WordPressie

Odkryj Interactivity API w WordPressie

Zobacz więcej
Deepseek R1 – Fakty i mity. Recenzja i analiza chińskiego modelu.

Deepseek R1 – Fakty i mity. Recenzja i analiza chińskiego modelu.

DeepSeek-R1 – Komentarz techniczny

DeepSeek-R1 – Komentarz techniczny

Anatomia Agenta AI – Kompletny przewodnik techniczny

Anatomia Agenta AI – Kompletny przewodnik techniczny

Agent AI – Kompleksowy przewodnik

Agent AI – Kompleksowy przewodnik

Agenty AI: Dlaczego wertykalne rozwiązania AI mogą być 10 razy większe niż rozwiązania SaaS

Agenty AI: Dlaczego wertykalne rozwiązania AI mogą być 10 razy większe niż rozwiązania SaaS

Zobacz więcej

Rola zaufania w integrowaniu AI w opiece zdrowotnej

Artykuł źródłowy pochodzi z portalu PubMed. Oryginalny tytuł to:

Badanie pilotażowe skupiające się na wpływie szczegółowości informacji dotyczących narzędzi opartych na sztucznej inteligencji (AI/CDS) na postawę pacjentów pokazało, że bardziej szczegółowe wyjaśnienia zwiększają ich komfort i zaufanie do tych narzędzi oraz do decyzji lekarza zależnie od wyniku AI/CDS i poziomu zgodności lekarza z tym wynikiem. Dostarczanie większej ilości informacji może poprawić ogólne stosunek pacjentów…

Zobacz Abstrakt

J Med Ethics. 2024 Dec 12:jme-2024-110080. doi: 10.1136/jme-2024-110080. Online ahead of print.

ABSTRACT

BACKGROUND: It is increasingly recognised that the success of artificial intelligence-based clinical decision support (AI/CDS) tools will depend on physician and patient trust, but factors impacting patients’ views on clinical care reliant on AI have been less explored.

OBJECTIVE: This pilot study explores whether, and in what contexts, detail of explanation provided about AI/CDS tools impacts patients’ attitudes toward the tools and their clinical care.

METHODS: We designed a Sequential Multiple Assignment Randomized Trial vignette web-based survey. Participants recruited through Amazon Mechanical Turk were presented with hypothetical vignettes describing health concerns and were sequentially randomised along three factors: (1) the level of detail of explanation regarding an AI/CDS tool; (2) the AI/CDS result; and (3) the physician’s level of agreement with the AI/CDS result. We compared mean ratings of comfort and confidence by the level of detail of explanation using t-tests. Regression models were fit to confirm conditional effects of detail of explanation.

RESULTS: The detail of explanation provided regarding the AI/CDS tools was positively related to respondents’ comfort and confidence in the usage of the tools and their perception of the physician’s final decision. The effects of detail of explanation on their perception of the physician’s final decision were different given the AI/CDS result and the physician’s agreement or disagreement with the result.

CONCLUSIONS: More information provided by physicians regarding the use of AI/CDS tools may improve patient attitudes toward healthcare involving AI/CDS tools in general and in certain contexts of the AI/CDS result and physician agreement.

PMID:39667845 [https://pubmed.ncbi.nlm.nih.gov/39667845/?utm_source=Other&utm_medium=rss&utm_campaign=pubmed-2&utm_content=18Cx71VHHP3XUFm_UtwWKCRHiwab6gnVsoJL5Op9oVpDIYQURc&fc=20241127081157&ff=20241213020332&v=2.18.0.post9+e462414] | DOI:10.1136/jme-2024-110080 [https://doi.org/10.1136/jme-2024-110080]

Wprowadzenie

Współczesna medycyna coraz intensywniej korzysta z zaawansowanych technologii, w tym ze sztucznej inteligencji (AI) i systemów wspomagania decyzji klinicznych (CDS). W miarę jak te technologie zyskują na znaczeniu, istotne staje się zrozumienie, jak zaufanie pacjentów do AI i CDS wpływa na ich postawy wobec opieki zdrowotnej. Niezależnie od obiecujących wyników technologicznych, przyjęcie przez pacjentów tych innowacji zależy w dużej mierze od poziomu ich komfortu i zaufania do stosowanych narzędzi.

Kontekst badania

AI w medycynie odgrywa coraz to większą rolę. Przejawia się to zarówno w diagnostyce, leczeniu, jak i monitorowaniu pacjentów. Przykłady zastosowań obejmują rozpoznawanie wzorców w obrazach medycznych, analizę dużych zbiorów danych oraz personalizację terapii. Jednak by naukowe osiągnięcia AI mogły przełożyć się na praktyczną korzyść dla pacjentów, niezbędne jest zbudowanie zaufania do tych systemów. Pacjenci obawiają się, że decyzje podejmowane przez algorytmy mogą być mylne lub zbyt złożone, by je zrozumieć, co prowadzi do potrzeby zapewnienia klarowności i transparentności w komunikacji.

Zaufanie pacjentów jest kluczowe dla skuteczności AI/CDS w opiece zdrowotnej.

Może ono wpływać na ich gotowość do akceptacji wniosków sugerowanych przez technologie oraz na ich stopień współpracy w procesie leczenia. W miarę jak AI staje się częścią codziennej praktyki medycznej, zrozumienie tego, jak pacjenci postrzegają AI, staje się coraz istotniejsze dla lekarzy, badaczy i decydentów.

Cele badania

Badanie pilotażowe miało na celu zbadanie, w jaki sposób różne poziomy szczegółowości wyjaśnień dostarczanych przez systemy AI/CDS oraz akceptacja decyzji przez lekarzy wpływają na komfort i zaufanie pacjentów. Celem było zrozumienie, jakie czynniki mogą wzmacniać lub osłabiać zaufanie pacjentów do AI w kontekście zdrowotnym. Badanie skupiało się na określeniu warunków, w których AI/CDS mogłoby być najbardziej efektywne i akceptowane.

Metodologia

Badanie przeprowadzono z zastosowaniem metody SMAR (Sequential Multiple Assignment Randomized Trial), która pozwala na elastyczne podejście do podejmowania decyzji i umożliwia dostosowywanie się do zmieniających się warunków. Dane zbierane były za pomocą platformy Amazon Mechanical Turk, która umożliwia angażowanie szerokiego spektrum uczestników o zróżnicowanych profilach demograficznych.

Wyniki badania

Badanie wykazało, że poziom szczegółowości wyjaśnień miał istotny wpływ na komfort i zaufanie pacjentów. Pacjenci, którzy otrzymywali bardziej szczegółowe wyjaśnienia, wykazywali wyższy poziom zgody i mieli większe zaufanie do systemu AI/CDS. Wyniki sugerują, że im więcej informacji i klarowności zawiera wyjaśnienie, tym łatwiej pacjentom zaakceptować sugerowane decyzje.

Dodatkowo, postrzeganie decyzji lekarzy i ich zgodność z wynikami AI/CDS również wpływały na poziom zaufania pacjentów. W sytuacjach, gdy lekarz potwierdzał wniosek AI, poziom zaufania pacjentów wzrastał, co wskazuje na znaczenie ludzkiego autorytetu w procesie akceptacji decyzji podejmowanych przez algorytmy.

Wnioski

Rola szczegółowości wyjaśnień w poprawie postaw pacjentów wobec zastosowań AI w opiece zdrowotnej jest kluczowa. Wyniki badania wskazują, że szczegółowe i jasne wyjaśnienia mogą nie tylko poprawić poziom zaufania, ale również wsparcie ze strony pacjentów w procesie decyzyjnym.

Zastosowanie wyników badania w praktyce medycznej może pomóc w rozwijaniu strategii komunikacyjnych, które ułatwią pacjentom zrozumienie i akceptację technologicznych narzędzi wspomagających ich leczenie. Transparentność i komunikacja są kluczowe, by AI w opiece zdrowotnej mogło w pełni wykorzystać swój potencjał.

Podsumowanie

Komunikacja odgrywa kluczową rolę w kształtowaniu relacji między pacjentami a pracownikami medycznymi w kontekście integracji AI w opiece zdrowotnej. Zrozumienie i akceptacja decyzji podejmowanych przez systemy wspomagania decyzji klinicznych mogą zostać znacząco wzmocnione poprzez dostarczanie przejrzystych i szczegółowych wyjaśnień.

Bibliografia

  • PMID: 39667845
  • DOI: 10.1007/s00129-023-05428-9