日本語AIでPubMedを検索
ChatGPTは小児歯科に応用できるか?
Can ChatGPT be guide in pediatric dentistry?
PMID: 39748267
抄録
背景:
最近、ChatGPTの健康分野での利用が注目されています。歯科の分野では、ChatGPTは歯科教育や患者教育などの分野でサービスを提供することができます。本研究の目的は、小児歯科分野においてChatGPTによって作成された小児患者・保護者向け情報および学術コンテンツの質、読みやすさ、独創性を評価することである。
BACKGROUND: The use of ChatGPT in the field of health has recently gained popularity. In the field of dentistry, ChatGPT can provide services in areas such as, dental education and patient education. The aim of this study was to evaluate the quality, readability and originality of pediatric patient/parent information and academic content produced by ChatGPT in the field of pediatric dentistry.
方法:
ChatGPTには、小児患者・保護者向けの質問と学術的な質問からなる各トピック(歯科外傷、フッ化物、歯の萌出・口腔衛生)ごとに合計60の質問を行った。回答の質を評価するために修正Global Quality Scale(採点範囲は1:質が悪いから5:質が優れているまで)を用い、読みやすさを評価するためにFlesch Reading EaseとFlesch-Kincaid Grade Levelを用いた。類似度指数は、ソフトウェアによって与えられた回答の量的類似性を、異なるデータベースにあるガイドラインや学術文献と比較するために使用された。
METHODS: A total of 60 questions were asked to ChatGPT for each topic (dental trauma, fluoride, and tooth eruption/oral health) consisting of pediatric patient/parent questions and academic questions. The modified Global Quality Scale (the scoring ranges from 1: poor quality to 5: excellent quality) was used to evaluate the quality of the answers and Flesch Reading Ease and Flesch-Kincaid Grade Level were used to evaluate the readability. A similarity index was used to compare the quantitative similarity of the answers given by the software with the guidelines and academic references in different databases.
結果:
回答の質を評価した結果、小児患者・保護者の質問の平均スコアは4.3±0.7、学術的な質問の平均スコアは3.7±0.8であり、統計的に有意な差が認められた(p<0.05)。歯科外傷に関する学術的な質問では、最も低いスコアであった(p<0.05)。しかし、ChatGPTの回答の読みやすさや類似性については、質問グループやトピックによる有意差は認められなかった(p>0.05)。
RESULTS: The evaluation of answers quality revealed an average score of 4.3 ± 0.7 for pediatric patient/parent questions and 3.7 ± 0.8 for academic questions, indicating a statistically significant difference (p < 0.05). Academic questions regarding dental trauma received the lowest scores (p < 0.05). However, no significant differences were observed in readability and similarity between ChatGPT answers for different question groups and topics (p > 0.05).
結論:
小児歯科において、ChatGPTは患者・保護者に質の高い情報を提供する。ChatGPTは、患者・保護者にとって読みにくく、類似率も許容範囲であるが、より効率的かつ流暢に人々と対話するためには、改善が必要である。
CONCLUSIONS: In pediatric dentistry, ChatGPT provides quality information to patients/parents. ChatGPT, which is difficult to readability for patients/parents and offers an acceptable similarity rate, needs to be improved in order to interact with people more efficiently and fluently.