Number №1, 2024 - page 33-43

ChatGPT в медицине: возможности и ограничения DOI: 10.29188/2712-9217-2024-10-1-33-43

For citation: Шадеркина В.А. ChatGPT в медицине: возможности и ограничения. Российский журнал телемедицины и электронного здравоохранения 2024;10(1):33-43; https://doi.org/10.29188/2712-9217-2024-10-1-33-43
  • Шадеркина В.А. – научный редактор урологического информационного портала UroWeb.ru; РИНЦ Author ID 880571, https://orcid.org/0000-0002-8940-4129
2059

ВВЕДЕНИЕ

За последние несколько лет во всем мире ChatGPT и подобные технологии на базе больших языковых моделей (БЯМ)/искусственного интеллекта (ИИ) активно внедряются в медицину. Развитие ChatGPT и поиск его ниши в медицине происходит практически во всех врачебных специальностях, в клинической практике, научной деятельности. Неограниченные в прямом понимании возможности ChatGPT стали одновременно не только источником больших надежд, но и больших опасений за достоверность генерируемой медицинской информации и безопасность пациентов.

МАТЕРИАЛЫ И МЕТОДЫ

Автор проанализировал имеющиеся литературные данные по применению больших языковых моделей (LLM, БЯМ, ИИ) в медицине. Публикации по поводу применения ИИ/ChatGPT появились в международных медицинских публикациях в 2023 году. Так, в базе Pubmed в 2023 году было 2082 публикаций, в 2024 – 1770 публикаций, что демонстрирует резкий рост интереса со стороны профессиональной медицинской аудитории. Для данной работы были отобраны 78 публикаций, 12 из которых вошли в качестве литературных источников.

РЕЗУЛЬТАТЫ

ChatGPT – это большая языковая модель (БЯМ), разработанная OpenAI и основанная на глубоком машинном обучении. ChatGPT способен генерировать связные, интеллектуальные, естественные тексты на любом языке, что является большим достижением в области ИИ. В настоящее время ChatGPT уже завоевал внимание всего мира благодаря своим точным и хорошо сформулированным ответам на различные темы, в том числе медицинские.

1. Возможные способы использования ChatGPT в медицине

Место ИИ/ChatGPT в медицине еще предстоит определить, но уже сейчас можно выделить области его использования:

  1. Оценка медицинских данных и поддержка клинических решений (ПКР, Clinical decision-making – CDS) – ИИ может анализировать большие объемы медицинских данных, выявлять закономерности и предоставлять рекомендации по лечению. Это может быть полезно в сложных случаях, где необходимо учитывать множество переменных, например, в дифференциальной диагностике, скрининге онкологических заболеваний, анализе визуальных данных и т.д.

    Hirosawa и колл. сравнили правильность постановки диагноза, дифференциальных диагнозов на основании 10 распространенных жалоб между ChatGPT-3 и врачами терапевтами. Правильность постановки диагноза ChatGPT-3 составила 93,3%, а врачами – 98,3%, что подчеркнуло пока еще имеющееся несовершенство ИИ [1]. В другом исследовании авторы ввели 36 клинических эпизодов из Клинического руководства Merck Sharp & Dohme (MSD) в ChatGPT и сравнили точность дифференциальной диагностики, диагностических тестов, окончательного диагноза и лечения. ChatGPT достиг общей точности 71,7% во всех 36 клинических случаях [2].

    Дальнейшие исследования могут быть направлены на разработку усовершенствованных моделей, которые интегрируют ИИ/ChatGPT с существующими системами принятия клинических решений (CDS). Эти модели могут использовать обширную медицинскую литературу, клинические рекомендации и данные пациентов, чтобы помочь врачам в постановке точного диагноза, составлении планов лечения и прогнозировании результатов лечения пациентов. При объединении опыта медицинских работников с возможностями ChatGPT обеспечивается всесторонняя и персонализированная поддержка принятия решений.

  2. Образовательная функция – ChatGPT может использоваться для обучения и повышения квалификации медицинских работников, предоставляя информацию о последних исследованиях, клинических протоколах и лечебных подходах.

  3. Медицинский менеджмент и обработка медицинской документации – ИИ способен управлять и обрабатывать большое количество документации, автоматизируя создание и анализ медицинских записей, что ускоряет работу и снижает вероятность ошибок. ChatGPT доказал свою эффективность при составлении клинических писем пациентов, радиологических отчетов, медицинских записей и выписок, повышая эффективность и точность для поставщиков медицинских услуг [3, 4].

    Ученые провели исследование по составлению писем онкологическим пациентам, страдающим раком кожи. Точность клинической информации составила 7 (диапазон 1-9). Используемый новый термин «человечность стиля письма» составил 0,77, что было высоко оценено исследователями [5]. В другом исследовании были опрошены 15 рентгенологов, которые оценили качество упрощенных радиологических отчетов ChatGPT. Из всех оценок 75% были «согласны» или «полностью согласны», и никто не выбрал «полностью не согласен». Большинство рентгенологов сочли, что упрощенные отчеты были точными и полными, и что они не причиняли потенциального вреда пациентам. Первоначальные результаты этого исследования показывают, что существует большой потенциал использования ChatGPT для улучшения пациенториентированной помощи в радиологии [6].

    ChatGPT может составлять структурированные медицинские справки и выписки для пациента, поступившего в отделение, предоставив информацию о текущем лечении, лабораторных анализах, анализах газов крови, а также респираторных и гемодинамических параметрах. ChatGPT может правильно группировать большинство параметров в соответствующие разделы, даже если они представлены только в сокращенном виде без какой-либо информации об их значении [7].

  4. Поддержка общения с пациентами – ИИ может использоваться для анализа жалоб, первичной диагностики и определения логистики пациентов в онлайн-режиме, что помогает направлять их к подходящим специалистам. Это может повысить доступность медицинской помощи в условиях загруженности лечебных учреждений. Также ChatGPT используется для интеллектуального ответа на вопросы и предоставления достоверной информации о заболеваниях и медицинских вопросах. Например, ученые предложили составить врачам и ChatGPT рекомендации для пациентов, врачами было создано 28 рекомендаций и ИИ – 36. После чего группа из 5 экспертов оценила все созданные рекомендации и выбрала 20 лучших, из них 9 были созданы ChatGPT [8]. Эксперты назвали рекомендации понятными, полезными, но избыточными и предвзятыми, а также с низкой приемлемостью.

  5. Персонализированное общение с пациентами – ChatGPT способен вести персонализированные интеллектуальные врачебные беседы с пациентами, основываясь на их истории болезни и текущих симптомах, осуществлять контроль состояния пациента, оказывать ему первичную психологическую поддержку в виде виртуального ассистента, что повышает в целом качество обслуживания и удовлетворенность медицинской помощью [9–11].

    Использование ChatGPT для ответа на медицинские вопросы продемонстрировало многообещающие результаты, предоставляя надежную информацию и рекомендации. Однако надо помнить, что ответы ChatGPT генерируются на основе шаблонов и знаний, полученных из данных обучения, которые могут устаревать и не учитывать конкретных ситуаций пациентов. Поэтому врачи должны проявлять осторожность и независимо проверять ключевую информацию, полученную от ChatGPT, чтобы обеспечить точность, пригодность и безопасность для отдельных пациентов. Осторожное и ответственное использование, а также постоянные исследования и новые разработки необходимы для максимизации преимуществ и минимизации потенциальных ограничений.

    Несмотря на широкие возможности, важно помнить о необходимости тщательно оценивать этические аспекты использования ИИ в медицине, включая вопросы конфиденциальности, точности данных и возможности замены человеческого контакта машинным взаимодействием. Всегда важно, чтобы конечное решение принимал квалифицированный медицинский специалист.

    Необходимо тщательно обдумать этические и конфиденциальные аспекты использования ИИ в медицине, особенно в отношении обработки личных данных и уважения к личной жизни пациентов. Кроме того, важно убедиться, что пациенты понимают, что они взаимодействуют с искусственным интеллектом, и что окончательные медицинские решения всегда должны приниматься врачами.

1.1. ИИ/ChatGPT в работе с пациентами

В настоящее время можно назвать несколько ключевых областей, где ИИ может оказать значительную поддержку при взаимодействии с пациентами на амбулаторном и стационарном этапах. ChatGPT может быть использован для первичной логистики пациентов через онлайн-чаты или мобильные приложения. Пациенты могут описывать свои симптомы, а система на основе ИИ предоставлять рекомендации о том, нужно ли срочно обращаться к врачу, можно ли обратиться в несрочном порядке или достаточно домашнего лечения. Это может помочь эффективнее распределить медицинские ресурсы и уменьшить нагрузку на первичное звено медицинских учреждений.

ИИ может предоставлять пациентам информацию о состоянии их здоровья, лечении и профилактике болезней. Это включает в себя подробные объяснения медицинских состояний, советы по управлению симптомами и информацию о возможных побочных эффектах лекарств.

ChatGPT может служить в качестве первой линии психологической поддержки, предлагая разговоры, направленные на уменьшение тревоги и стресса. Он может предложить методы релаксации или техники снижения стресса до того, как пациент получит возможность говорить с профессиональным психологом.

ИИ может помочь пациентам соблюдать назначенное лечение, напоминая о приеме лекарств, важности соблюдения диеты или необходимости регулярных упражнений. Это особенно ценно для пациентов с хроническими заболеваниями, которым требуется постоянное внимание к своему состоянию здоровья.

Для пациентов, испытывающих трудности с общением из-за возраста, инвалидности или языковых барьеров, ИИ может служить средством улучшения взаимодействия с медицинскими работниками, предлагая переводы, упрощенное изложение медицинских терминов или даже визуальные подсказки.

Через интеграцию с медицинскими устройствами и приложениями ChatGPT может помогать в мониторинге здоровья пациентов, анализируя данные с устройств и предоставляя своевременные обновления и рекомендации.

1.2. Самодиагностика пациентами с помощью ChatGPT

Абсолютная доступность ChatGPT или любых других инструментов искусственного интеллекта создает возможность их использования пациентами с целью самодиагностики и самолечения. В целом для пациентов это удобный, быстрый, дешевый и бесконечный способ получения информации о своем здоровье или заболевании.

ChatGPT может провести первичную оценку симптомов, описанных пациентом, и определить, являются ли симптомы потенциально серьезными, насколько немедленно надо обращаться к врачу и какой специальности, определить логистику пациента.

Пациенты могут получить исчерпывающую информационную поддержку – общую информацию о заболевании, методах диагностики и лечения, прогнозах. Генерируемая медицинская информация, основанная на имеющихся в сети интернет медицинских/научных/клинических данных, предоставляется пациенту в зависимости от его информационных запросов, она является неисчерпаемой по объему и уточняющим моментам. Однако необходимо учитывать, что ChatGPT/ИИ – это развивающийся инструмент, который на данный момент сложно назвать совершенным. Поэтому при его использовании пациентами необходимо помнить о рисках и ограничениях, которые надо доносить до сведения пациентов:

  1. Отсутствие клинической точности – ИИ, включая ChatGPT, не может заменить полноценную диагностику, которую проводит квалифицированный медицинский специалист. ИИ не имеет возможности проводить физический осмотр, анализировать все медицинские тесты или учитывать всю историю здоровья пациента. На современном этапе развития ИИ не обладает медицинской точностью, не всегда может правильно интерпретировать медицинские данные, результаты обследований, соотнести их с клинической картиной. Ошибки в диагностике могут варьироваться от недооценки серьезности состояния до полного игнорирования критических симптомов.
  2. Риск неправильной самодиагностики – существует опасность, что пациенты могут неправильно интерпретировать информацию и советы ИИ, что приведет к несвоевременному обращению к специалистам или неправильному лечению. Также если пациент полностью полагается на ИИ для оценки своих симптомов и принятия решения о лечении, это может привести к задержке обращения за профессиональной медицинской помощью, что может усугубить состояние, особенно в случаях, когда требуется срочное вмешательство.
  3. Неправильное лечение – на основе неверной самодиагностики пациенты могут начать самолечение, которое может быть неэффективным или даже опасным.
  4. Стресс и психологический дискомфорт – неверная интерпретация медицинской информации может вызвать стресс/беспокойство у пациентов. Особенно это касается тех случаев, когда ИИ предоставляет информацию о серьезных медицинских состояниях без соответствующей информационной поддержки со стороны врачей.
  5. Конфиденциальность данных – при использовании ИИ пациентами необходимо обеспечивать защиту своих личных медицинских данных. Не все платформы ИИ обеспечивают достаточный уровень безопасности данных.
  6. Юридическая и этическая ответственность – в случае ошибок или недоразумений, связанных с использованием ИИ для самодиагностики, могут возникнуть юридические и этические вопросы относительно ответственности при неполной/неправильной интерпретации полученной медицинской информации пациентом, приведшей к неэффективному оказанию медицинской помощи.

Пациентам важно понимать, что ИИ пока может служить только лишь дополнительным инструментом для информирования и первичной оценки состояния, но не заменяет профессионального медицинского совета или лечения. Для сохранения здоровья всегда необходима консультация врача.

2. Опасности и риски использования ChatGPT врачами

Использование ChatGPT и других систем искусственного интеллекта врачами также несет в себе определенные риски и вызывает озабоченность в различных аспектах. Ниже перечислены ключевые опасности и ограничения, связанные с применением ИИ в медицинской практике:

  1. Зависимость от технологии. Возможно, существует риск того, что врачи могут стать слишком зависимы от ИИ/ChatGPT, с негативными последствиями в виде снижения своих клинических навыков, интуиции, профессионального мышления. В особенности это касается молодых врачей.

  2. В случае медицинских ошибок может возникнуть неопределенность относительно распределения ответственности между врачом и технологией. Пока зоны и субъекты этой ответственности не определены юридически. В случае ошибок или упущений, вызванных рекомендациями ИИ, может возникнуть вопрос о юридической ответственности и страховании.

  3. Несмотря на высокий уровень развития, ИИ/ChatGPT может допускать ошибки, особенно если он обучался на неполных, недостаточных или предвзято представленных данных. Например, ИИ может не учитывать социальные, психологические и экономические факторы пациентов, что критически важно для правильной диагностики и лечения. Более того, известен такой фактор, как «галлюцинации» ИИ/ChatGPT – формат, при котором происходит генерация некорректных, вымышленных данных («галлюцинации»), что требует дополнительной верификации информации медицинским персоналом.

  4. Безопасность и конфиденциальность данных. Передача и хранение медицинских данных через ИИ-платформы повышает риски утечек данных и нарушений конфиденциальности, что может привести к серьезным последствиям для пациентов и учреждений.

    Для использования ChatGPT любой пользователь должен быть идентифицирован в системе и не может пользоваться ресурсом на условиях анонимности. Пользователь-пациент, авторизовавшись, задает вопросы по своему здоровью, имеет возможности загрузки файлов с результатами обследований, на которых, как правило, указаны его персональные данные – фамилия, имя, дата рождения, город, название клиники и т.д. Система ChatGPT способна распознать и проанализировать данные на бланках формата pdf, word, сканов документов, и сделать из имеющихся данных определенные выводы, которые выдаются пациенту. Верны эти выводы или нет, в любом случае они соотнесены с аккаунтом пользователя.

    Опасность утечки персональных данных заключается в том, что эта конфиденциальная информация может оказаться в руках неправомерных пользователей, что может привести к ряду негативных последствий: личные данные могут быть использованы для несанкционированного доступа к финансовым счетам или для других мошеннических действий.

    Компрометация медицинской информации и нарушения приватности могут повлиять на страховые вопросы и трудоустройство.

    Меры предосторожности для избежания утечек данных заключаются в шифровании всех данных как при хранении, так и в процессе передачи, что будет усложнять доступ к информации. Доступ к персональным данным должен быть строго регламентирован и предоставляться только авторизованным лицам, а все сотрудники, работающие с персональными данными, должны быть проинформированы о рисках и методах защиты данных. Одним из серьезных барьеров на пути утечки данных являются регулярные аудиты безопасности, позволяющие выяснить и устранить уязвимость в системе защиты данных. Важно следовать законодательным нормам, касающимся защиты данных, таким как GDPR в Европе или HIPAA в США, которые устанавливают стандарты и требования к обработке персональных данных.

    Необходим выбор проверенных и безопасных платформ для работы с ИИ, таких как ChatGPT, которые регулярно обновляют свои меры безопасности.

    Если, несмотря на все методы защиты, все-таки произошла утечка данных, необходимо быстрое реагирование на возникший инцидент. В идеальной модели должна быть система быстрого реагирования для минимизации ущерба. Наличие вышеперечисленных мер не гарантирует полную защиту от всех возможных угроз, но значительно снижает риски утечки и повышает уровень безопасности обрабатываемых данных.

  5. Этические аспекты. Использование ИИ может ставить под вопрос соблюдение этических стандартов медицинской практики, особенно когда речь идет о принятии решений, связанных с жизнью и смертью. На данный момент роль этические аспекты ИИ не определены юридически, в том числе нет никаких клинических/методических рекомендаций по его использованию в медицинской практике.

  6. Деперсонализация ухода. Повышенное использование технологии может привести к уменьшению личного общения между врачом и пациентом, что может негативно сказаться на качестве лечения, наблюдения и ухода.

Рекомендации

Для минимизации этих рисков врачам важно поддерживать баланс между использованием инновационных технологий и поддержанием своих профессиональных знаний и навыков. Важно проводить постоянный мониторинг и оценку точности и безопасности ИИ-систем, обеспечивать соблюдение законодательства о конфиденциальности данных и продолжать обучение и подготовку медицинских работников в области этики и технологий.

3. Может ли ИИ заменить врача?

Полная замена врачей системами на основе искусственного интеллекта, такими как ChatGPT, на этапе первичной диагностики в обозримом будущем маловероятна по нескольким причинам, хотя ИИ может значительно улучшить и ускорить процессы логистики пациентов, первичного информирования о состоянии его здоровья, получения первичной информации о заболевании и методах лечения.

Автор считает, что основными факторами, ограничивающими возможность полной замены врачей ИИ следующие:

  1. Медицинская диагностика часто требует комплексного подхода, который включает не только интерпретацию симптомов, но и физический осмотр, подробный сбор анамнеза, анализ медицинской истории и личные наблюдения врача, которые трудно полностью воспроизвести с помощью ИИ.
  2. Многие аспекты медицинского обслуживания зависят от личного контакта, в том числе умения врача наладить доверительные отношения с пациентом, что важно для точной диагностики и эффективного лечения. Эмпатия и понимание человеческого состояния — ключевые аспекты, которые ИИ трудно воспроизвести. Доверие пациентов к системам ИИ и их готовность принимать медицинские советы от «нечеловеческих» систем могут существенно влиять на эффективность диагностики и лечения. Личное взаимодействие с врачом часто является ключевым фактором в процессе лечения.
  3. Вопросы ответственности и этики остаются очень острыми в медицине. Определение «виновного» в неправильном диагнозе, недостаточной/неправильной диагностике, некорректном лечении и того, кто несет ответственность за ошибки ИИ в медицинской деятельности, представляет собой нерешенную юридическую проблему. Также существуют этические соображения относительно автономности и конфиденциальности пациентов.
  4. Хотя ИИ может эффективно обрабатывать большие массивы данных и выявлять закономерности, которые будут использованы для ответов на запросы, ошибки все еще возможны, особенно если система обучалась на неполных данных. Точность ИИ в чрезвычайно разнообразных сценариях еще предстоит испытать. ИИ должен постоянно обучаться на большом и разнообразном наборе новейших медицинских данных для улучшения точности и эффективности, это постоянно совершенствующаяся система.
  5. Текущее поколение ИИ, включая ChatGPT, не обладает полным пониманием контекста или способностью к критическому мышлению, что критически важно в медицинских условиях, где каждый случай уникален.

Наиболее вероятный сценарий — это не замена врача, а интеграция ChatGPT и подобных систем ИИ в медицинскую практику, где он будет поддерживать медицинских работников, ускорять процесс сбора и анализа данных, но основные клинические решения и диагностику все равно будет осуществлять квалифицированный медицинский персонал. Таким образом, ИИ/ChatGPT могут быть достаточно эффективным вспомогательным инструментом для врачей.

4. Стоит ли опасаться интеграции ChatGPT в медицину?

Интеграция ChatGPT и других систем искусственного интеллекта в медицину представляет собой как значительные возможности, так и потенциальные риски [12]. Важно взвешивать преимущества и опасения, чтобы принять обоснованное решение о применении таких технологий. Вот несколько аспектов, которые стоит принять во внимание:

Преимущества:

  1. Улучшение доступа к медицинским услугам – ИИ может помочь расширить доступ к медицинской помощи, особенно в удаленных или недостаточно обслуживаемых регионах.
  2. Эффективность обработки данных – ИИ способен обрабатывать огромные объемы данных быстро и точно, что может помочь в диагностике и мониторинге состояний. Однако вся получаемая информация должна быть верифицирована медицинскими работниками.
  3. Снижение нагрузки на медицинский персонал и автоматизация рутинных задач и административных процедур может освободить время медицинских работников для более качественного общения с пациентами и их лечения.

Недостатки:

  1. ИИ может допускать ошибки, особенно если он обучался на предвзятых или неполных данных. Эти ошибки могут привести к неверным диагнозам или рекомендациям. Потенциальная угроза связанна с тем, что LLM обучаются на данных, которые они сами генерируют. Это может привести к закреплению предвзятостей и снижению качества выводов [13].
  2. Использование ИИ в медицине требует передачи и хранения личных и чувствительных данных, что увеличивает риск их утечек или несанкционированного доступа. Возможно, этот аспект будет иметь финансовые риски для администрации лечебного учреждения для разработки и технического обеспечения мер защиты персональных данных.
  3. Этические вопросы – вопросы соблюдения прав пациентов, включая автономию и конфиденциальность, а также ответственности за медицинские решения при использовании ИИ остаются пока нерешенными.
  4. Деперсонализация ухода – увлечение ИИ может привести к уменьшению личного общения между врачами и пациентами, что может негативно сказаться на качестве лечения, выполнения рекомендаций по уходу, и, как следствие, снижению удовлетворенности пациентов качеством медицинской помощи.

Рекомендации по снижению рисков::

  • Прежде чем внедрять ИИ в клиническую практику, необходимо провести обширное тестирование для проверки его надежности и точности.
  • Внедрение строгих мер безопасности для защиты данных, включая шифрование и регулярные аудиты безопасности.
  • Врачи и медицинские работники должны быть обучены пониманию и правильному использованию ИИ, чтобы они могли адекватно интерпретировать его выводы и интегрировать их в клиническую практику.
  • Разработка клинических, методических и этических рекомендаций и стандартов для использования ИИ в медицине.

Таким образом, интеграция ChatGPT в медицину требует осторожного подхода с учетом всех возможных рисков и выгод, а также разработки четких регуляторных и этических рамок.

5. Экономическое обоснование внедрения ChatGPT в медицину

Экономическое обоснование внедрения ChatGPT и других технологий искусственного интеллекта зависит от множества факторов – специфики медицинской практики, технологической инфраструктуры, местных экономических условий, возможностей обучения персонала. Важными могут быть следующие ключевые аспекты, которые стоит рассмотреть:

Снижение затрат
  • Автоматизация административных задач. ChatGPT может значительно уменьшить время, затрачиваемое медицинским персоналом на решение административных задач – запись данных, управление документацией, планирование.
  • Эффективное распределение ресурсов. Использование ИИ для построения логистики и первичной диагностики пациентов может оптимизировать использование медицинских ресурсов, направляя пациентов на наиболее подходящие услуги, что минимизирует неэффективное использование дорогостоящих медицинских услуг.
Улучшение качества оказания медицинских услуг
  • Улучшение результатов лечения – ИИ может помочь врачам принимать более обоснованные клинические решения, что потенциально улучшает исходы для пациентов и сокращает стоимость долгосрочного лечения за счет предотвращения осложнений.
  • Персонализация лечения – ChatGPT может анализировать большие объемы данных о пациенте, помогая разрабатывать более персонализированные планы лечения, которые могут быть более эффективными и экономичными.
Увеличение доходов
  • Расширение доступа к услугам – ИИ может помочь медицинским учреждениям обслуживать больше пациентов, особенно в удаленных или недостаточно обслуживаемых районах, что увеличивает их доходы.
  • Улучшение удовлетворенности пациентов – более быстрое и удобное обслуживание с помощью ИИ может повысить удовлетворенность пациентов, что, в свою очередь, может способствовать удержанию клиентов и привлечению новых. Особенно это касается частных клиник и врачебных кабинетов.
Сокращение ошибок
  • В перспективе – минимизация ошибок – ИИ может помочь уменьшить количество ошибок в диагностике и управлении медицинскими данными, что снижает риск дорогостоящих судебных исков и повышает общую безопасность пациентов. Однако это лишь предположение, пока без человеческого контроля сокращение ошибок представляется недостижимым.
Расходы на внедрение и поддержку
  • Инвестиции в технологии – как любая новая технология ИИ требует значительных начальных инвестиций, требующихся для освоения технологии и обучения персонала. Эти затраты могут быть барьером, особенно для малых и средних медицинских практик.
  • Постоянное обновление и поддержка – технологии быстро устаревают, и для поддержания их актуальности требуются регулярные обновления и техническая поддержка, что также влечет за собой дополнительные расходы.

Учитывая все вышесказанное, экономическая оправданность внедрения ChatGPT в медицину будет зависеть от того, насколько эффективно можно управлять этими расходами и максимизировать получаемые выгоды. Важно провести тщательный предварительный анализ затрат и выгод перед принятием решения о внедрении.

6. ChatGPT в мировой медицине

На момент последних обновлений информации, использование технологий на основе искусственного интеллекта, подобных ChatGPT, в медицинской практике наблюдается в нескольких странах, но конкретные случаи внедрения ChatGPT могут варьироваться. Вот несколько примеров, как искусственный интеллект применяется в медицине по разным странам.


Соединенные Штаты Америки

В США многие медицинские учреждения и стартапы активно интегрируют ИИ для анализа медицинских изображений, помощи в клинических решениях и автоматизации административных задач. Такие компании, как IBM с их системой Watson Health, активно работают в этом направлении.


Великобритания

NHS (Национальная служба здравоохранения) использует ИИ для различных целей, включая улучшение диагностики и персонализированной медицины. Также стартапы, такие как Babylon Health, предлагают виртуальные медицинские консультации с помощью ИИ.


Китай

Китай активно внедряет ИИ в здравоохранение, особенно для диагностики изображений и мониторинга здоровья населения. Компании, такие как Alibaba Health и Tencent, разрабатывают решения, которые используют ИИ для улучшения качества медицинских услуг.


Германия

Германия использует ИИ в клинических исследованиях и диагностике, а также для оптимизации госпитальных операций. Например, Charitе Hospital в Берлине активно исследует возможности ИИ в медицине.


Япония

В Японии, где старение населения является значительной проблемой, ИИ используется для мониторинга состояния пожилых людей и помощи в управлении хроническими заболеваниями.

Перечисленные страны активно используют ИИ в медицине для различных целей, от диагностики и лечения до управления больничными процессами и обеспечения первичной медицинской помощи. Однако внедрение ChatGPT специфически для медицинских целей может зависеть от множества факторов, включая местное законодательство, наличие технологической инфраструктуры и готовность медицинских учреждений к инновациям. Важно отметить, что использование ИИ в медицине подразумевает не только технические аспекты, но и необходимость учета этических, юридических и социальных вопросов. Поэтому страны внедряют эти технологии с различной степенью интеграции и осторожности, учитывая все эти аспекты.

ОБСУЖДЕНИЕ

Несомненным представляется тот факт, что большие языковые модели (БЯМ – LLM) прочно входят в нашу жизнь, в профессиональную медицину, в работу с пациентами. Развитие LLM началось в 2018-2019 гг, в настоящее время можно выделить специализированные (предобученные) модели LLM в здравоохранении (табл. 1).



Таблица 1. Специализированные (предобученные) модели LLM в здравоохранении с характеристиками
Table 1. Specialized (pre-trained) LLM models in healthcare with characteristics
МодельДата выходаРазмер параметровКраткие характеристикиИспользуемая LLMКомпания- разработчикКорпус медицинских данных
BioBERT2019110МАнализ текстов и извлечение информации из биомедицинской литературыBERTNAVER CorporationPubMed articles
ClinicalBERT2019110МАнализ и обработка клинических текстовBERTHarvard UniversityClinical notes from MIMIC-III
BlueBERT2019110МОбработка и анализ биомедицинских и клинических данныхBERTMicrosoftPubMed and MIMIC-III
  BioGPT  2022  124МГенерация текста и ответы на вопросы в контексте биомедицины  GPT  OpenAlPubMed, PMC, and other biomedical datasets
PubMedBERT2020110МОбработка и анализ научных статей в области биомедициныBERTAllen Institute for AlPubMed abstracts
ClinicalGPT2023345МГенерация текста, анализ и ответы на вопросы в клиническом контекстеGPT-3OpenAIElectronic Health Records (EHRs)

Первые реакции на LLM в медицине характеризуются восторженными отзывами о способности отвечать на вопросы в свободной форме без необходимости специального обучения. Среди преимуществ отмечаются повышение эффективности и результативности медицинской работы, улучшение взаимодействия между пациентами и медицинским персоналом, а также потенциал для использования в образовательных и исследовательских целях. Однако, существуют и ограничения, такие как необходимость тщательной проверки точности ответов (для исключения/уменьшения галлюцинаций LLM), возможные этические вопросы и риски, связанные с неправильной интерпретацией данных [14].

Исходя из областей применения LLM (ИИ/ChatGPT) в медицине, можно дать практические советы, чтобы минимизировать описанные в п.1.2 и п. 2 риски:

  1. Будьте как можно более конкретными: чем конкретнее запрос, тем точнее и полезнее будет ответ.
  2. Опишите контекст: укажите, в каком контексте задается вопрос.
  3. Экспериментируйте с различными стилями запросов: используйте различные форматы запросов, чтобы получить наиболее полный ответ.
  4. Определите цель запроса: уточните, какой именно результат вы хотите получить.
  5. Используйте роли: попросите LLM выступить в определенной роли для получения информации в конкретной обстановке.
  6. Итерация и уточнение: постоянно уточняйте запросы на основе полученных ответов.
  7. Используйте открытые вопросы: такие вопросы могут дать более широкий и полный ответ.
  8. Просите примеры: запрашивайте конкретные примеры для лучшего понимания.

ВЫВОДЫ

  1. Мощные функции ИИ/ChatGPT уже сейчас демонстрируют практически безграничные возможности применения в медицине. Независимо от нашего отношения к ChatGPT, развитие ИИ не остановить. Самый разумный курс действий – принять его и использовать его возможности для улучшения здравоохранения человека.
  2. Важно рассматривать ChatGPT как ценный инструмент, который дополняет опыт медицинских работников, а не заменяет его. Необходима поддержка и стимулирование исследований в области применения ИИ в медицине.
  3. Большие языковые модели требуют дальнейшей разработки, развития, обучения, в том числе на основе обратной связи.
  4. Требуется разработка мер по обеспечению безопасности данных и соблюдению этических норм применения LLM/ИИ/ChatGPT. Необходима тщательная проверка точности ответов и интерпретации данных.
  5. Перспективы применения LLM/ИИ/ChatGPT в медицине безграничны и включают повышение эффективности медицинской работы и улучшение взаимодействия с пациентами, поддержку принятия решений и административная помощь, потенциал для использования в образовательных и исследовательских целях, демократизация технологий ИИ.

ЛИТЕРАТУРА

1. Hirosawa T, Harada Y, Yokose M, Sakamoto T, Kawamura R, Shimizu T. Diagnostic accuracy of differential-diagnosis lists generated by Generative Pretrained Transformer 3 Chatbot for clinical vignettes with common chief complaints: a pilot study. Int J Environ Res Public Health 2023;20(4):3378. https://doi.org/10.3390/ijerph20043378.
2. Rao A, Pang M, Kim J, Kamineni M, Lie W, Prasad AK, et al. Assessing the Utility of ChatGPT Throughout the Entire Clinical Workflow: Development and Usability Study. J Med Internet Res 2023;25:e48659. https://doi.org/10.2196/48659.
3. Щамхалова К.К., Меринов Д.С., Артемов А.В., Гурбанов Ш.Ш. Искусственный интеллект и нейронные сети в урологии. Экспериментальная и клиническая урология 2023;16(2):32-37. [Shchamkhalova K.K., Merinov D.S., Artemov A.V., Gurbanov Sh.Sh. Artificial intelligence and neural networks in urology. Eksperimental'naya i klinicheskaya urologiya = Experimental and Clinical Urology 2023;16(2):32-37 (In Russian)]. https://doi.org/10.29188/2222-8543-2023-16-2-32-37.
4. Щамхалова К.К., Меринов Д.С., Артемов А.В., Гурбанов Ш.Ш., Инамов Р.Р., Аполихин О.И., Каприн А.Д. Искусственный интеллект для персонализированного подхода к перкутанной нефролитотрипсии. Экспериментальная и клиническая урология 2024;17(1):24-34 [Shchamkhalova K.K., Merinov D.S., Artemov A.V., Gurbanov Sh.Sh., Inamov R.R., Apolikhin O.I., Kaprin A.D. Artificial intelligence for a personalized approach to percutaneous nephrolithotripsy. Eksperimental'naya i klinicheskaya urologiya = Experimental and Clinical Urology 2024;17(1):24-34; (In Russian)]. https://doi.org/10.29188/2222-8543-2024-17-4-24-34.
5. Ali SR, Dobbs TD, Hutchings HA, Whitaker IS. Using ChatGPT to write patient clinic letters. Lancet Digit Health 2023;5(4):e179-e181. https://doi.org/10.1016/s2589-7500(23)00048-1.
6. Jeblick K, Schachtner B, Dexl J, Mittermeier A, Stџber AT, Topalis J, et al. ChatGPT makes medicine easy to swallow: an exploratory case study on simplified radiology reports. Eur Radiol 2024;34(5):2817-25. https://doi.org/10.1007/s00330-023-10213-1.
7. Cascella M, Montomoli J, Bellini V, Bignami E. Evaluating the feasibility of ChatGPT in healthcare: an analysis of multiple clinical and research scenarios. J Med Syst 2023;47(1):33.https://doi.org/10.1007/s10916-023-01925-4.
8. Liu S, Wright AP, Patterson B, Wanderer JP, Turer RW, Nelson SD, et al. Assessing the value of ChatGPT for clinical decision support optimization. medRxiv 2023. https://doi.org/10.1101/2023.02.21.23286254.
9. Potapenko I, Boberg-Ans LC, Stormly Hansen M, Klefter ON, van Dijk EHC, Subhi Y. Artificial intelligence-based chatbot patient information on common retinal diseases using ChatGPT. Acta Ophthalmol 2023;101(7):829-31. https://doi.org/10.1111/aos.15661.
10. Grџnebaum A, Chervenak J, Pollet SL, Katz A, Chervenak FA. The exciting potential for ChatGPT in obstetrics and gynecology. Am J Obstet Gynecol 2023;228(6):696-705. https://doi.org/10.1016/j.ajog.2023.03.009.
11. Yeo YH, Samaan JS, Ng WH, Ting P, Trivedi H, Vipani A, et al. Assessing the performance of ChatGPT in answering questions regarding cirrhosis and hepatocellular carcinoma. Clin Mol Hepatol 2023;29(3):721-32. https://doi.org/10.3350/cmh.2023.0089.
12. Шадеркин И.А. Слабые стороны искусственного интеллекта в медицине. Российский журнал телемедицины и электронного здравоохранения 2021;7(2):50-2. [Shaderkin I.A. Weaknesses of artificial intelligence in medicine. Rossiyskiy zhurnal telemeditsiny i elektronnogo zdravookhraneniya = Russian Journal of Telemedicine and Electronic Health 2021;7(2):50-2. (In Russian)]. https://doi.org/10.29188/2712-9217-2021-7-2-50-52.
13. Choudhury A, Chaudhry Z. Large Language Models and User Trust: Consequence of Self-Referential Learning Loop and the Deskilling of Health Care Professionals. J Med Internet Res 2024;26:e56764. https://doi.org/10.2196/56764.
14. Thirunavukarasu AJ, Ting DSJ, Elangovan K, Gutierrez L, Tan TF, Ting DSW. Large language models in medicine. Nat Med 2023;29(8):1930-40. https://doi.org/10.1038/s41591-023-02448-8.
AttachmentSize
Скачать файл456.9 KB
large language models; artificial intelligence; ChatGPT; medicine; clinical decision support

Я хочу получать электронную версию журнала