Tworzenie bloków Gutenberg z użyciem ChatGPT.

Zobacz kurs

Podstawy AWS.

Automatyzacja procesów z Make.com

Nowy plugin Secure Custom Fields i konflikt na horyzoncie

Nowy plugin Secure Custom Fields i konflikt na horyzoncie

Przyszłość projektowania w WordPressie: Blokowe rewolucje i wizje Franka Kleina

Przyszłość projektowania w WordPressie: Blokowe rewolucje i wizje Franka Kleina

Optymalizacja obrazów w WordPress: jak przyspieszyć witrynę i poprawić jakość?

Optymalizacja obrazów w WordPress: jak przyspieszyć witrynę i poprawić jakość?

Najlepsze wtyczki do sprzedaży biletów na WordPressie

Najlepsze wtyczki do sprzedaży biletów na WordPressie

Odkryj Interactivity API w WordPressie

Odkryj Interactivity API w WordPressie

Zobacz więcej
Bielik – Polski Model AI: Wszystko, Co Musisz Wiedzieć

Bielik – Polski Model AI: Wszystko, Co Musisz Wiedzieć

Deepseek R1 – Fakty i mity. Recenzja i analiza chińskiego modelu.

Deepseek R1 – Fakty i mity. Recenzja i analiza chińskiego modelu.

DeepSeek-R1 – Komentarz techniczny

DeepSeek-R1 – Komentarz techniczny

Anatomia Agenta AI – Kompletny przewodnik techniczny

Anatomia Agenta AI – Kompletny przewodnik techniczny

Agent AI – Kompleksowy przewodnik

Agent AI – Kompleksowy przewodnik

Zobacz więcej

Wpływ Sztucznej Inteligencji na Egzaminy Dentystyczne: Studium Przypadku ChatGPT i Gemini Advanced

Artykuł źródłowy pochodzi z portalu PubMed. Oryginalny tytuł to:

Badanie oceniające wydajność chatbotów zasilanych SI, ChatGPT-4.0 i Gemini Advanced, w egzaminie specjalizacyjnym z dziedziny stomatologii (DUS) w Turcji, wykazało, że ChatGPT-4.0 osiągnął lepsze wyniki niż Gemini Advanced, przekraczając minimalny próg zdawalności na poziomie 45 punktów. Mimo to, oba chatboty uzyskały słabsze wyniki w porównaniu z najlepszymi zdającymi dany rok, zwłaszcza w sekcjach nauk podstawowych,…

Zobacz Abstrakt

BMC Med Educ. 2025 Feb 10;25(1):214. doi: 10.1186/s12909-024-06389-9.

ABSTRACT

BACKGROUND: AI-powered chatbots have spread to various fields including dental education and clinical assistance to treatment planning. The aim of this study is to assess and compare leading AI-powered chatbot performances in dental specialization exam (DUS) administered in Turkey and compare it with the best performer of that year.

METHODS: DUS questions for 2020 and 2021 were directed to ChatGPT-4.0 and Gemini Advanced individually. DUS questions were manually entered into AI-powered chatbot in their original form, in Turkish. The results obtained were compared with each other and the year’s best performers. Candidates who score at least 45 points on this centralized exam are deemed to have passed and are eligible to select their preferred department and institution. The data was statistically analyzed using Pearson’s chi-squared test (p < 0.05). RESULTS: ChatGPT-4.0 received 83.3% correct response rate on the 2020 exam, while Gemini Advanced received 65% correct response rate. On the 2021 exam, ChatGPT-4.0 received 80.5% correct response rate, whereas Gemini Advanced received 60.2% correct response rate. ChatGPT-4.0 outperformed Gemini Advanced in both exams (p < 0.05). AI-powered chatbots performed worse in overall score (for 2020: ChatGPT-4.0, 65,5 and Gemini Advanced, 50.1; for 2021: ChatGPT-4.0, 65,6 and Gemini Advanced, 48.6) when compared to overall scores of the best performer of that year (68.5 points for year 2020 and 72.3 points for year 2021). This poor performance also includes the basic sciences and clinical sciences sections (p < 0.001). Additionally, periodontology was the clinical specialty in which both AI-powered chatbots achieved the best results, the lowest performance was determined in the endodontics and orthodontics. CONCLUSION: AI-powered chatbots, namely ChatGPT-4.0 and Gemini Advanced, passed the DUS by exceeding the threshold score of 45. However, they still lagged behind the top performers of that year, particularly in basic sciences, clinical sciences, and overall score. Additionally, they exhibited lower performance in some clinical specialties such as endodontics and orthodontics. PMID:39930399 [https://pubmed.ncbi.nlm.nih.gov/39930399/?utm_source=Other&utm_medium=rss&utm_campaign=pubmed-2&utm_content=18Cx71VHHP3XUFm_UtwWKCRHiwab6gnVsoJL5Op9oVpDIYQURc&fc=20241127081157&ff=20250211020416&v=2.18.0.post9+e462414] | DOI:10.1186/s12909-024-06389-9 [https://doi.org/10.1186/s12909-024-06389-9]

Wstęp

Edukacja dentystyczna jest obszarem akademickim, który nieustannie ewoluuje wraz z postępem technologii. W ostatnich latach obserwujemy wzrost zainteresowania wykorzystaniem sztucznej inteligencji (AI) w różnych aspektach nauczania, w tym także w egzaminach sprawdzających wiedzę przyszłych dentystów. Wykorzystanie AI w tym kontekście ma na celu nie tylko usprawnienie procesu nauki, ale także możliwą rewolucję w sposobach oceny umiejętności i wiedzy studenckiej.

Cel badania

Celem badań było porównanie skuteczności dwóch systemów AI — ChatGPT-4.0 i Gemini Advanced — w kontekście ich zdolności do zdawania egzaminów na kierunku stomatologicznym (DUS). Badania te mają na celu ocenę, czy AI może rywalizować z najlepszymi ludzkimi kandydatami oraz jakie potencjalne korzyści i ograniczenia mogą wynikać z użycia takich technologii w edukacji dentystycznej.

Metodyka

W ramach badania zdecydowano się na użycie rzeczywistych pytań egzaminacyjnych z lat 2020 i 2021. Pytania te zostały starannie wyselekcjonowane, aby obejmować szerokie spektrum tematów związanych z edukacją dentystyczną. Następnie zostały one wprowadzone do chatbotów ChatGPT-4.0 i Gemini Advanced. Kluczowym elementem metodyki była dokładna analiza wyników, która obejmowała ocenę liczby poprawnych odpowiedzi udzielonych przez każdy z systemów na poszczególne pytania egzaminacyjne.

Wyniki

Wyniki ChatGPT-4.0

ChatGPT-4.0 wykazał się dość wysoką dokładnością, z poprawnością odpowiedzi wynoszącą 83,3% w 2020 roku i 80,5% w 2021 roku, co wskazuje na silną zdolność rozpoznawania i przetwarzania danej tematyki:

correct_responses = [83.3, 80.5]

Wyniki Gemini Advanced

Porównując wyniki Gemini Advanced z ChatGPT-4.0, można zauważyć pewne różnice. Wyniki te sugerują, że choć Gemini Advanced uzyskuje podobne rezultaty, to jednak w określonych obszarach ChatGPT-4.0 mógł wykazywać lepszą adaptację do kontekstu pytania.

Analiza wyników w zakresie specjalizacji klinicznych

Podczas analizy wyników w obrębie specjalizacji klinicznych zauważono, że oba systemy AI lepiej radzą sobie w dziedzinach bardziej technicznych, takich jak chirurgia dentystyczna, niż w bardziej intuicyjnych i wymagających holistycznego podejścia, takich jak diagnostyka stomatologiczna.

Dyskusja

Wyniki te są niezwykle istotne dla przyszłości edukacji dentystycznej z użyciem AI. Wykorzystanie AI, choć nadal nie osiąga poziomu najlepszych ludzkich kandydatów, otwiera nowe możliwości szkoleniowe. AI może służyć jako narzędzie wspomagające w procesie nauki, dostarczając studentom szczegółowych wyjaśnień oraz symulując egzaminy próbne. Jednocześnie, pomimo swojej wydajności, AI nie zastąpi w pełni ludzkiej intuicji i zdolności do adaptacji w nowych, niezdefiniowanych sytuacjach.

Wnioski

Podsumowując, zastosowanie sztucznej inteligencji w edukacji dentystycznej ma znaczny potencjał, ale nadal stoi przed nim wiele wyzwań. Wyniki badań wskazują, że AI, takie jak ChatGPT-4.0 i Gemini Advanced, mogą skutecznie wspierać studentów w przygotowaniach do egzaminów, jednak ich pełne zrozumienie kontekstu pytania w niektórych przypadkach może być ograniczone. Kluczowe będzie dalsze badanie tej technologii, aby zrozumieć jej złożoność i dostosowywać do potrzeb edukacyjnych studentów stomatologii.

References

  • PMID:39930399
  • DOI:10.1186/s12909-024-06389-9