How Well Do AI Models Inform Otitis Media Patients? A Comparative Study of Large Language Models

dc.contributor.authorYüksel, Yeşim
dc.contributor.authorSenirli, Rezarta Taga
dc.date.accessioned2026-01-24T11:55:44Z
dc.date.available2026-01-24T11:55:44Z
dc.date.issued2025
dc.departmentAlanya Alaaddin Keykubat Üniversitesi
dc.description.abstractAim: The aim of this study was to evaluate the accuracy, comprehensiveness, and readability of information provided by large language models (LLMs) supported by natural language processing (NLP) technologies regarding otitis media (OM) based on responses to questions asked by patients and their relatives. Method: In this descriptive, cross-sectional evaluation study, 60 frequently asked questions by patients and their relatives regarding OM were classified under four subheadings (general information, diagnosis, follow-up and therapy, and surgery and complications) and answered by three different LLMs (Google Gemini 2.5 Flash, Microsoft Copilot, ChatGPT-4o). The answers were evaluated for accuracy by two experienced otorhinolaryngology specialists using a 5-point Likert scale. The readability of the responses was analyzed using the Coleman-Liau Index (CLI) and Simple Measure of Gobbledygook (SMOG) index to determine readability levels corresponding to academic education levels and to compare the models. Results: The artificial intelligence (AI) models received similarly high scores for accuracy in their responses to patient questions related to OM. In the readability analysis, Gemini responses were found to be statistically significantly more readable than those of the other models, according to the SMOG and CLI indices. The ChatGPT responses required a higher level of education; in particular, the readability of the answers under the “diagnosis” subheading was found to have the highest rate of graduate-level education requirement. Conclusion: Although the three commonly used AI models provided similarly accurate responses to OM-related questions, differences in readability were observed among the LLMs. For AI to effectively support patient education and promote treatment adherence, both the accuracy and readability of the content are essential.
dc.description.abstractAmaç: Bu çalışmada, doğal dil işleme (NLP) teknolojileri ile desteklenen büyük dil modellerinin (LLM) hastalar ve hasta yakınları tarafından yöneltilen sorulara verdikleri yanıtlar üzerinden, otitis media (OM) hakkında sundukları bilgilerin doğruluğu, kapsamlılığı ve okunabilirliği değerlendirildi. Yöntem: Bu tanımlayıcı kesitsel değerlendirme çalışmasında, hastalar ve hasta yakınları tarafından OM ile ilgili sıkça sorulan 60 soru dört alt başlık (genel bilgi, tanı, takip ve tedavi ve cerrahi ve komplikasyonlar) altında gruplandırıldı ve üç farklı büyük dil modeli (Google Gemini 2.5 Flash, Microsoft Copilot, ChatGPT-4o) tarafından yanıtlandı. Yanıtlar, iki deneyimli Kulak Burun Boğaz (KBB) uzmanı tarafından 5 puanlık Likert ölçeği kullanılarak doğruluk açısından değerlendirildi. Yanıtların okunabilirliği Coleman-Liau İndeksi (CLI) ve Gobbledygook’un Basit Ölçüm (SMOG) indeksi kullanılarak analiz edildi ve bu analiz ile okunabilirlik düzeylerine karşılık gelen akademik eğitim düzeyleri belirlendi ve modeller karşılaştırıldı. Bulgular: Yapay zeka modellerinin OM ile ilgili hasta sorularına verdiği yanıtlar, doğruluk açısından benzer şekilde yüksek puanlar aldı. Okunabilirlik analizinde, SMOG ve CLI indekslerine göre Gemini'nin yanıtlarının diğer modellere kıyasla istatistiksel olarak anlamlı düzeyde daha okunabilir olduğu bulundu. ChatGPT'nin yanıtları daha yüksek bir eğitim seviyesi gerektirmekle birlikte, özellikle “tanı” başlığı altındaki yanıtların okunabilirliği için lisansüstü eğitim gerekliliği en yüksek oranda bulundu. Sonuç: Yaygın olarak kullanılan üç yapay zeka modeli, OM ile ilgili sorulara benzer düzeyde doğru yanıtlar vermiş olsa da, LLM’ler arasında okunabilirlik açısından farklılıklar gözlendi. Yapay zekânın hasta eğitimini etkin bir şekilde desteklemesi ve tedaviye uyumu artırması için hem içeriğin doğruluğu hem de okunabilirliği önemlidir.
dc.identifier.doi10.30565/medalanya.1807012
dc.identifier.endpage235
dc.identifier.issn2587-0319
dc.identifier.issue3
dc.identifier.startpage228
dc.identifier.urihttps://doi.org/10.30565/medalanya.1807012
dc.identifier.urihttps://hdl.handle.net/20.500.12868/3191
dc.identifier.volume9
dc.language.isoen
dc.publisherAlanya Alaaddin Keykubat Üniversitesi
dc.relation.ispartofActa Medica Alanya
dc.relation.ispartofActa Medica Alanya
dc.relation.publicationcategoryMakale - Ulusal Hakemli Dergi - Kurum Öğretim Elemanı
dc.rightsinfo:eu-repo/semantics/openAccess
dc.snmzKA_DergiPark_20260121
dc.subjectOtorhinolaryngology
dc.subjectKulak Burun Boğaz
dc.titleHow Well Do AI Models Inform Otitis Media Patients? A Comparative Study of Large Language Models
dc.title.alternativeYapay Zeka Modelleri Otitis Media Hastalarını Ne Kadar İyi Bilgilendiriyor? Büyük Dil Modellerinin Karşılaştırmalı Çalışması
dc.typeArticle

Dosyalar