За последние несколько лет во всем мире ChatGPT и подобные технологии на базе больших языковых моделей (БЯМ)/искусственного интеллекта (ИИ) активно внедряются в медицину. Развитие ChatGPT и поиск его ниши в медицине происходит практически во всех врачебных специальностях, в клинической практике, научной деятельности. Неограниченные в прямом понимании возможности ChatGPT стали одновременно не только источником больших надежд, но и больших опасений за достоверность генерируемой медицинской информации и безопасность пациентов.
Автор проанализировал имеющиеся литературные данные по применению больших языковых моделей (LLM, БЯМ, ИИ) в медицине. Публикации по поводу применения ИИ/ChatGPT появились в международных медицинских публикациях в 2023 году. Так, в базе Pubmed в 2023 году было 2082 публикаций, в 2024 – 1770 публикаций, что демонстрирует резкий рост интереса со стороны профессиональной медицинской аудитории. Для данной работы были отобраны 78 публикаций, 12 из которых вошли в качестве литературных источников.
ChatGPT – это большая языковая модель (БЯМ), разработанная OpenAI и основанная на глубоком машинном обучении. ChatGPT способен генерировать связные, интеллектуальные, естественные тексты на любом языке, что является большим достижением в области ИИ. В настоящее время ChatGPT уже завоевал внимание всего мира благодаря своим точным и хорошо сформулированным ответам на различные темы, в том числе медицинские.
Место ИИ/ChatGPT в медицине еще предстоит определить, но уже сейчас можно выделить области его использования:
Оценка медицинских данных и поддержка клинических решений (ПКР, Clinical decision-making – CDS) – ИИ может анализировать большие объемы медицинских данных, выявлять закономерности и предоставлять рекомендации по лечению. Это может быть полезно в сложных случаях, где необходимо учитывать множество переменных, например, в дифференциальной диагностике, скрининге онкологических заболеваний, анализе визуальных данных и т.д.
Hirosawa и колл. сравнили правильность постановки диагноза, дифференциальных диагнозов на основании 10 распространенных жалоб между ChatGPT-3 и врачами терапевтами. Правильность постановки диагноза ChatGPT-3 составила 93,3%, а врачами – 98,3%, что подчеркнуло пока еще имеющееся несовершенство ИИ [1]. В другом исследовании авторы ввели 36 клинических эпизодов из Клинического руководства Merck Sharp & Dohme (MSD) в ChatGPT и сравнили точность дифференциальной диагностики, диагностических тестов, окончательного диагноза и лечения. ChatGPT достиг общей точности 71,7% во всех 36 клинических случаях [2].
Дальнейшие исследования могут быть направлены на разработку усовершенствованных моделей, которые интегрируют ИИ/ChatGPT с существующими системами принятия клинических решений (CDS). Эти модели могут использовать обширную медицинскую литературу, клинические рекомендации и данные пациентов, чтобы помочь врачам в постановке точного диагноза, составлении планов лечения и прогнозировании результатов лечения пациентов. При объединении опыта медицинских работников с возможностями ChatGPT обеспечивается всесторонняя и персонализированная поддержка принятия решений.
Образовательная функция – ChatGPT может использоваться для обучения и повышения квалификации медицинских работников, предоставляя информацию о последних исследованиях, клинических протоколах и лечебных подходах.
Медицинский менеджмент и обработка медицинской документации – ИИ способен управлять и обрабатывать большое количество документации, автоматизируя создание и анализ медицинских записей, что ускоряет работу и снижает вероятность ошибок. ChatGPT доказал свою эффективность при составлении клинических писем пациентов, радиологических отчетов, медицинских записей и выписок, повышая эффективность и точность для поставщиков медицинских услуг [3, 4].
Ученые провели исследование по составлению писем онкологическим пациентам, страдающим раком кожи. Точность клинической информации составила 7 (диапазон 1-9). Используемый новый термин «человечность стиля письма» составил 0,77, что было высоко оценено исследователями [5]. В другом исследовании были опрошены 15 рентгенологов, которые оценили качество упрощенных радиологических отчетов ChatGPT. Из всех оценок 75% были «согласны» или «полностью согласны», и никто не выбрал «полностью не согласен». Большинство рентгенологов сочли, что упрощенные отчеты были точными и полными, и что они не причиняли потенциального вреда пациентам. Первоначальные результаты этого исследования показывают, что существует большой потенциал использования ChatGPT для улучшения пациенториентированной помощи в радиологии [6].
ChatGPT может составлять структурированные медицинские справки и выписки для пациента, поступившего в отделение, предоставив информацию о текущем лечении, лабораторных анализах, анализах газов крови, а также респираторных и гемодинамических параметрах. ChatGPT может правильно группировать большинство параметров в соответствующие разделы, даже если они представлены только в сокращенном виде без какой-либо информации об их значении [7].
Поддержка общения с пациентами – ИИ может использоваться для анализа жалоб, первичной диагностики и определения логистики пациентов в онлайн-режиме, что помогает направлять их к подходящим специалистам. Это может повысить доступность медицинской помощи в условиях загруженности лечебных учреждений. Также ChatGPT используется для интеллектуального ответа на вопросы и предоставления достоверной информации о заболеваниях и медицинских вопросах. Например, ученые предложили составить врачам и ChatGPT рекомендации для пациентов, врачами было создано 28 рекомендаций и ИИ – 36. После чего группа из 5 экспертов оценила все созданные рекомендации и выбрала 20 лучших, из них 9 были созданы ChatGPT [8]. Эксперты назвали рекомендации понятными, полезными, но избыточными и предвзятыми, а также с низкой приемлемостью.
Персонализированное общение с пациентами – ChatGPT способен вести персонализированные интеллектуальные врачебные беседы с пациентами, основываясь на их истории болезни и текущих симптомах, осуществлять контроль состояния пациента, оказывать ему первичную психологическую поддержку в виде виртуального ассистента, что повышает в целом качество обслуживания и удовлетворенность медицинской помощью [9–11].
Использование ChatGPT для ответа на медицинские вопросы продемонстрировало многообещающие результаты, предоставляя надежную информацию и рекомендации. Однако надо помнить, что ответы ChatGPT генерируются на основе шаблонов и знаний, полученных из данных обучения, которые могут устаревать и не учитывать конкретных ситуаций пациентов. Поэтому врачи должны проявлять осторожность и независимо проверять ключевую информацию, полученную от ChatGPT, чтобы обеспечить точность, пригодность и безопасность для отдельных пациентов. Осторожное и ответственное использование, а также постоянные исследования и новые разработки необходимы для максимизации преимуществ и минимизации потенциальных ограничений.
Несмотря на широкие возможности, важно помнить о необходимости тщательно оценивать этические аспекты использования ИИ в медицине, включая вопросы конфиденциальности, точности данных и возможности замены человеческого контакта машинным взаимодействием. Всегда важно, чтобы конечное решение принимал квалифицированный медицинский специалист.
Необходимо тщательно обдумать этические и конфиденциальные аспекты использования ИИ в медицине, особенно в отношении обработки личных данных и уважения к личной жизни пациентов. Кроме того, важно убедиться, что пациенты понимают, что они взаимодействуют с искусственным интеллектом, и что окончательные медицинские решения всегда должны приниматься врачами.
В настоящее время можно назвать несколько ключевых областей, где ИИ может оказать значительную поддержку при взаимодействии с пациентами на амбулаторном и стационарном этапах. ChatGPT может быть использован для первичной логистики пациентов через онлайн-чаты или мобильные приложения. Пациенты могут описывать свои симптомы, а система на основе ИИ предоставлять рекомендации о том, нужно ли срочно обращаться к врачу, можно ли обратиться в несрочном порядке или достаточно домашнего лечения. Это может помочь эффективнее распределить медицинские ресурсы и уменьшить нагрузку на первичное звено медицинских учреждений.
ИИ может предоставлять пациентам информацию о состоянии их здоровья, лечении и профилактике болезней. Это включает в себя подробные объяснения медицинских состояний, советы по управлению симптомами и информацию о возможных побочных эффектах лекарств.
ChatGPT может служить в качестве первой линии психологической поддержки, предлагая разговоры, направленные на уменьшение тревоги и стресса. Он может предложить методы релаксации или техники снижения стресса до того, как пациент получит возможность говорить с профессиональным психологом.
ИИ может помочь пациентам соблюдать назначенное лечение, напоминая о приеме лекарств, важности соблюдения диеты или необходимости регулярных упражнений. Это особенно ценно для пациентов с хроническими заболеваниями, которым требуется постоянное внимание к своему состоянию здоровья.
Для пациентов, испытывающих трудности с общением из-за возраста, инвалидности или языковых барьеров, ИИ может служить средством улучшения взаимодействия с медицинскими работниками, предлагая переводы, упрощенное изложение медицинских терминов или даже визуальные подсказки.
Через интеграцию с медицинскими устройствами и приложениями ChatGPT может помогать в мониторинге здоровья пациентов, анализируя данные с устройств и предоставляя своевременные обновления и рекомендации.
Абсолютная доступность ChatGPT или любых других инструментов искусственного интеллекта создает возможность их использования пациентами с целью самодиагностики и самолечения. В целом для пациентов это удобный, быстрый, дешевый и бесконечный способ получения информации о своем здоровье или заболевании.
ChatGPT может провести первичную оценку симптомов, описанных пациентом, и определить, являются ли симптомы потенциально серьезными, насколько немедленно надо обращаться к врачу и какой специальности, определить логистику пациента.
Пациенты могут получить исчерпывающую информационную поддержку – общую информацию о заболевании, методах диагностики и лечения, прогнозах. Генерируемая медицинская информация, основанная на имеющихся в сети интернет медицинских/научных/клинических данных, предоставляется пациенту в зависимости от его информационных запросов, она является неисчерпаемой по объему и уточняющим моментам. Однако необходимо учитывать, что ChatGPT/ИИ – это развивающийся инструмент, который на данный момент сложно назвать совершенным. Поэтому при его использовании пациентами необходимо помнить о рисках и ограничениях, которые надо доносить до сведения пациентов:
Пациентам важно понимать, что ИИ пока может служить только лишь дополнительным инструментом для информирования и первичной оценки состояния, но не заменяет профессионального медицинского совета или лечения. Для сохранения здоровья всегда необходима консультация врача.
Использование ChatGPT и других систем искусственного интеллекта врачами также несет в себе определенные риски и вызывает озабоченность в различных аспектах. Ниже перечислены ключевые опасности и ограничения, связанные с применением ИИ в медицинской практике:
Зависимость от технологии. Возможно, существует риск того, что врачи могут стать слишком зависимы от ИИ/ChatGPT, с негативными последствиями в виде снижения своих клинических навыков, интуиции, профессионального мышления. В особенности это касается молодых врачей.
В случае медицинских ошибок может возникнуть неопределенность относительно распределения ответственности между врачом и технологией. Пока зоны и субъекты этой ответственности не определены юридически. В случае ошибок или упущений, вызванных рекомендациями ИИ, может возникнуть вопрос о юридической ответственности и страховании.
Несмотря на высокий уровень развития, ИИ/ChatGPT может допускать ошибки, особенно если он обучался на неполных, недостаточных или предвзято представленных данных. Например, ИИ может не учитывать социальные, психологические и экономические факторы пациентов, что критически важно для правильной диагностики и лечения. Более того, известен такой фактор, как «галлюцинации» ИИ/ChatGPT – формат, при котором происходит генерация некорректных, вымышленных данных («галлюцинации»), что требует дополнительной верификации информации медицинским персоналом.
Безопасность и конфиденциальность данных. Передача и хранение медицинских данных через ИИ-платформы повышает риски утечек данных и нарушений конфиденциальности, что может привести к серьезным последствиям для пациентов и учреждений.
Для использования ChatGPT любой пользователь должен быть идентифицирован в системе и не может пользоваться ресурсом на условиях анонимности. Пользователь-пациент, авторизовавшись, задает вопросы по своему здоровью, имеет возможности загрузки файлов с результатами обследований, на которых, как правило, указаны его персональные данные – фамилия, имя, дата рождения, город, название клиники и т.д. Система ChatGPT способна распознать и проанализировать данные на бланках формата pdf, word, сканов документов, и сделать из имеющихся данных определенные выводы, которые выдаются пациенту. Верны эти выводы или нет, в любом случае они соотнесены с аккаунтом пользователя.
Опасность утечки персональных данных заключается в том, что эта конфиденциальная информация может оказаться в руках неправомерных пользователей, что может привести к ряду негативных последствий: личные данные могут быть использованы для несанкционированного доступа к финансовым счетам или для других мошеннических действий.
Компрометация медицинской информации и нарушения приватности могут повлиять на страховые вопросы и трудоустройство.
Меры предосторожности для избежания утечек данных заключаются в шифровании всех данных как при хранении, так и в процессе передачи, что будет усложнять доступ к информации. Доступ к персональным данным должен быть строго регламентирован и предоставляться только авторизованным лицам, а все сотрудники, работающие с персональными данными, должны быть проинформированы о рисках и методах защиты данных. Одним из серьезных барьеров на пути утечки данных являются регулярные аудиты безопасности, позволяющие выяснить и устранить уязвимость в системе защиты данных. Важно следовать законодательным нормам, касающимся защиты данных, таким как GDPR в Европе или HIPAA в США, которые устанавливают стандарты и требования к обработке персональных данных.
Необходим выбор проверенных и безопасных платформ для работы с ИИ, таких как ChatGPT, которые регулярно обновляют свои меры безопасности.
Если, несмотря на все методы защиты, все-таки произошла утечка данных, необходимо быстрое реагирование на возникший инцидент. В идеальной модели должна быть система быстрого реагирования для минимизации ущерба. Наличие вышеперечисленных мер не гарантирует полную защиту от всех возможных угроз, но значительно снижает риски утечки и повышает уровень безопасности обрабатываемых данных.
Этические аспекты. Использование ИИ может ставить под вопрос соблюдение этических стандартов медицинской практики, особенно когда речь идет о принятии решений, связанных с жизнью и смертью. На данный момент роль этические аспекты ИИ не определены юридически, в том числе нет никаких клинических/методических рекомендаций по его использованию в медицинской практике.
Деперсонализация ухода. Повышенное использование технологии может привести к уменьшению личного общения между врачом и пациентом, что может негативно сказаться на качестве лечения, наблюдения и ухода.
Для минимизации этих рисков врачам важно поддерживать баланс между использованием инновационных технологий и поддержанием своих профессиональных знаний и навыков. Важно проводить постоянный мониторинг и оценку точности и безопасности ИИ-систем, обеспечивать соблюдение законодательства о конфиденциальности данных и продолжать обучение и подготовку медицинских работников в области этики и технологий.
Полная замена врачей системами на основе искусственного интеллекта, такими как ChatGPT, на этапе первичной диагностики в обозримом будущем маловероятна по нескольким причинам, хотя ИИ может значительно улучшить и ускорить процессы логистики пациентов, первичного информирования о состоянии его здоровья, получения первичной информации о заболевании и методах лечения.
Автор считает, что основными факторами, ограничивающими возможность полной замены врачей ИИ следующие:
Наиболее вероятный сценарий — это не замена врача, а интеграция ChatGPT и подобных систем ИИ в медицинскую практику, где он будет поддерживать медицинских работников, ускорять процесс сбора и анализа данных, но основные клинические решения и диагностику все равно будет осуществлять квалифицированный медицинский персонал. Таким образом, ИИ/ChatGPT могут быть достаточно эффективным вспомогательным инструментом для врачей.
Интеграция ChatGPT и других систем искусственного интеллекта в медицину представляет собой как значительные возможности, так и потенциальные риски [12]. Важно взвешивать преимущества и опасения, чтобы принять обоснованное решение о применении таких технологий. Вот несколько аспектов, которые стоит принять во внимание:
Таким образом, интеграция ChatGPT в медицину требует осторожного подхода с учетом всех возможных рисков и выгод, а также разработки четких регуляторных и этических рамок.
Экономическое обоснование внедрения ChatGPT и других технологий искусственного интеллекта зависит от множества факторов – специфики медицинской практики, технологической инфраструктуры, местных экономических условий, возможностей обучения персонала. Важными могут быть следующие ключевые аспекты, которые стоит рассмотреть:
Снижение затратУчитывая все вышесказанное, экономическая оправданность внедрения ChatGPT в медицину будет зависеть от того, насколько эффективно можно управлять этими расходами и максимизировать получаемые выгоды. Важно провести тщательный предварительный анализ затрат и выгод перед принятием решения о внедрении.
На момент последних обновлений информации, использование технологий на основе искусственного интеллекта, подобных ChatGPT, в медицинской практике наблюдается в нескольких странах, но конкретные случаи внедрения ChatGPT могут варьироваться. Вот несколько примеров, как искусственный интеллект применяется в медицине по разным странам.
В США многие медицинские учреждения и стартапы активно интегрируют ИИ для анализа медицинских изображений, помощи в клинических решениях и автоматизации административных задач. Такие компании, как IBM с их системой Watson Health, активно работают в этом направлении.
NHS (Национальная служба здравоохранения) использует ИИ для различных целей, включая улучшение диагностики и персонализированной медицины. Также стартапы, такие как Babylon Health, предлагают виртуальные медицинские консультации с помощью ИИ.
Китай активно внедряет ИИ в здравоохранение, особенно для диагностики изображений и мониторинга здоровья населения. Компании, такие как Alibaba Health и Tencent, разрабатывают решения, которые используют ИИ для улучшения качества медицинских услуг.
Германия использует ИИ в клинических исследованиях и диагностике, а также для оптимизации госпитальных операций. Например, Charitе Hospital в Берлине активно исследует возможности ИИ в медицине.
В Японии, где старение населения является значительной проблемой, ИИ используется для мониторинга состояния пожилых людей и помощи в управлении хроническими заболеваниями.
Перечисленные страны активно используют ИИ в медицине для различных целей, от диагностики и лечения до управления больничными процессами и обеспечения первичной медицинской помощи. Однако внедрение ChatGPT специфически для медицинских целей может зависеть от множества факторов, включая местное законодательство, наличие технологической инфраструктуры и готовность медицинских учреждений к инновациям. Важно отметить, что использование ИИ в медицине подразумевает не только технические аспекты, но и необходимость учета этических, юридических и социальных вопросов. Поэтому страны внедряют эти технологии с различной степенью интеграции и осторожности, учитывая все эти аспекты.
Несомненным представляется тот факт, что большие языковые модели (БЯМ – LLM) прочно входят в нашу жизнь, в профессиональную медицину, в работу с пациентами. Развитие LLM началось в 2018-2019 гг, в настоящее время можно выделить специализированные (предобученные) модели LLM в здравоохранении (табл. 1).
Модель | Дата выхода | Размер параметров | Краткие характеристики | Используемая LLM | Компания- разработчик | Корпус медицинских данных |
---|---|---|---|---|---|---|
BioBERT | 2019 | 110М | Анализ текстов и извлечение информации из биомедицинской литературы | BERT | NAVER Corporation | PubMed articles |
ClinicalBERT | 2019 | 110М | Анализ и обработка клинических текстов | BERT | Harvard University | Clinical notes from MIMIC-III |
BlueBERT | 2019 | 110М | Обработка и анализ биомедицинских и клинических данных | BERT | Microsoft | PubMed and MIMIC-III |
BioGPT | 2022 | 124М | Генерация текста и ответы на вопросы в контексте биомедицины | GPT | OpenAl | PubMed, PMC, and other biomedical datasets |
PubMedBERT | 2020 | 110М | Обработка и анализ научных статей в области биомедицины | BERT | Allen Institute for Al | PubMed abstracts |
ClinicalGPT | 2023 | 345М | Генерация текста, анализ и ответы на вопросы в клиническом контексте | GPT-3 | OpenAI | Electronic Health Records (EHRs) |
Первые реакции на LLM в медицине характеризуются восторженными отзывами о способности отвечать на вопросы в свободной форме без необходимости специального обучения. Среди преимуществ отмечаются повышение эффективности и результативности медицинской работы, улучшение взаимодействия между пациентами и медицинским персоналом, а также потенциал для использования в образовательных и исследовательских целях. Однако, существуют и ограничения, такие как необходимость тщательной проверки точности ответов (для исключения/уменьшения галлюцинаций LLM), возможные этические вопросы и риски, связанные с неправильной интерпретацией данных [14].
Исходя из областей применения LLM (ИИ/ChatGPT) в медицине, можно дать практические советы, чтобы минимизировать описанные в п.1.2 и п. 2 риски:
Прикрепленный файл | Размер |
---|---|
Скачать файл | 456.9 кб |