Resumo
Enquadramento: Os doentes procuram frequentemente informações sobre cancro na Internet [1-3], porém os websites carecem de precisão e são difíceis de compreender [1]. O ChatGPT pode facilitar o acesso a informações médicas [1,3,4]. Contudo, como não foi treinado para responder a perguntas sobre radioterapia, a qualidade das suas respostas permanece indeterminada [5-7]. Objetivo: Avaliar a qualidade e a fiabilidade das respostas do ChatGPT-3.5 a perguntas frequentes dos doentes que realizam radioterapia. Métodos: Foram selecionadas quarenta questões, com base na análise de artigos [8-12] que abordam as questões mais frequentes dos doentes sobre radioterapia, as quais foram inseridas no ChatGPT-3.5. As respostas obtidas foram avaliadas em: (1) qualidade, por seis técnicos de radioterapia utilizando o General Quality Score (GQS) [6,13]; e (2) compreensibilidade de leitura, utilizando o Flesch Reading Ease Score (FRES) e o Flesch-Kincaid Grade Level (FKGL) [4,14-16]. Resultados: Analisando as respostas dos técnicos ao GQS, verifica-se que o ChatGPT-3.5 fornece informações precisas e bem estruturadas, mas algumas respostas geradas apresentam informações limitadas ou imprecisas. Os índices de leitura (FRES = 30.68 e FKGL = 13.53) classificam as respostas como de difícil leitura para o público em geral. Conclusões: Os resultados obtidos demonstram que o ChatGPT-3.5 pode responder com precisão a perguntas gerais sobre a radioterapia, mas revela uma precisão reduzida quando responde a perguntas relacionadas especificamente com o planeamento e o tratamento. O ChatGPT-3.5 apresenta-se como uma ferramenta valiosa para os doentes, abordando com precisão algumas questões comuns sobre radioterapia. Contudo, a compreensão das respostas que este fornece pode ser difícil/desafiante para indivíduos com menor literacia em saúde.
Referências
[1] Moazzam, Z; Cloyd, J; Lima, HA; Pawlik, TM. Quality of ChatGPT Responses to Questions Related to Pancreatic Cancer and its Surgical Care. Annals of Surgical Oncology. Springer Science and Business Media Deutschland GmbH 2023, 30, 6284–6.
[2] Haver, HL; Ambinder, EB; Bahl, M; Oluyemi, ET; Jeudy, J; Yi, PH. Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT. Radiology 2023, 307(4), e230424.
[3] Johnson, SB; King, AJ; Warner, EL; Aneja, S; Kann, BH; Bylund, CL. Using ChatGPT to evaluate cancer myths and misconceptions: artificial intelligence and cancer information. JNCI Cancer Spectr 2023, 7(2).
[4] Davis, RJ; Ayo-Ajibola, O; Lin, ME; Swanson, MS; Chambers, TN; Kwon, DI; et al. Evaluation of Oropharyngeal Cancer Information from Revolutionary Artificial Intelligence Chatbot. Laryngoscope 2024, 134(5), 2252–7.
[5] Walker, HL; Ghani, S; Kuemmerli, C; Nebiker, CA; Müller, BP; Raptis, DA; et al. Reliability of Medical Information Provided by ChatGPT: Assessment Against Clinical Guidelines and Patient Information Quality Instrument. J Med Internet Res 2023, 25.
[6] Coskun, B; Ocakoglu, G; Yetemen, M; Kaygisiz, O. Can ChatGPT, an Artificial Intelligence Language Model, Provide Accurate and High-quality Patient Information on Prostate Cancer? Urology 2023, 180, 35–58.
[7] Yalamanchili, A; Sengupta, B; Song, J; Lim, S; Thomas, TO; Mittal, BB; et al. Quality of Large Language Model Responses to Radiation Oncology Patient Care Questions. JAMA Netw Open 2024, E244630.
[8] Halkett, GKB; Kristjanson, LJ; Lobb, E; O’Driscoll, C; Taylor, M; Spry, N. Meeting breast cancer patients’ information needs during radiotherapy: what can we do to improve the information and support that is currently provided? Eur J Cancer Care (Engl) 2010, 19(4), 538–47.
[9] Halkett, GKB; Kristjanson, LJ; Lobb, E; Little, J; Shaw, T; Taylor, M; et al. Information needs and preferences of women as they proceed through radiotherapy for breast cancer. Patient Educ Couns 2012, 86(3), 396–404.
[10] Halkett, GKB; Kristjanson, LJ. Validity and reliability testing of two instruments to measure breast cancer patients’ concerns and information needs relating to radiation therapy. Radiation Oncology 2007, 2(1).
[11] Zeguers, M; De Haes, HCJM; Zandbelt, LC; Ter Hoeven, CL; Franssen, SJ; Geijsen, DD; et al. The information needs of new radiotherapy patients: How to measure? Do they want to know everything? and if not, why? Int J Radiat Oncol Biol Phys 2012, 82(1), 418-24.
[12] Cancer Institute N. Radiation Therapy and You: Support for People with Cancer [Internet]. Available from: www.cancer.gov
[13] Onder, CE; Koc, G; Gokbulut, P; Taskaldiran, I; Kuskonmaz, SM. Evaluation of the reliability and readability of ChatGPT-4 responses regarding hypothyroidism during pregnancy. Sci Rep 2024, 14(1).
[14] Wei, K; Fritz, C; Rajasekaran, K. Answering head and neck cancer questions: An assessment of ChatGPT responses. American Journal of Otolaryngology - Head and Neck Medicine and Surgery 2024, 45(1).
[15] Chiarelli, G; Stephens, A; Finati, M; Cirulli, GO; Beatrici, E; Filipas, DK; et al. Adequacy of prostate cancer prevention and screening recommendations provided by an artificial intelligence-powered large language model. Int Urol Nephrol 2024, 56(8), 2589-2595.
[16] Thia, I; Saluja, M. ChatGPT: Is This Patient Education Tool for Urological Malignancies Readable for the General Population? Res Rep Urol 2024, 16, 31–7.

Este trabalho encontra-se publicado com a Licença Internacional Creative Commons Atribuição-NãoComercial-SemDerivações 4.0.
Direitos de Autor (c) 2025 Marco Caetano , Catarina Marques, Maria Côrte-Real, Elisabete Carolino , Ana Monteiro Grilo
