User Profile
Select your user profile
Статья

Влияние ChatGPT на сферу здравоохранения

ИИ-инструмент в здравоохранении: преимущества и ограничения

Технологии на базе искусственного интеллекта продолжают трансформировать сферу здравоохранения, повышая производительность и экономическую эффективность медицинских организаций. В различных формах ИИ используется в процессе вовлечения пациентов в терапию, в приложениях для администрирования, при принятии решений о лечении и в медицинских исследованиях. Данная технология имеет огромный потенциал, особенно в отношении сложных неавтоматизированных процессов, которые человек не способен выполнять эффективно,  например, оптимизации сроков исследований при создании лекарств или анализе больших массивов данных.

Новый инструмент на основе ИИ уже привлекает внимание своей способностью влиять на медицинское сообщество. Создавая тексты, похожие на естественный язык, технология ChatGPT быстро покорила весь мир и взбудоражила общественность радикальным влиянием на наши процессы создания контента, написания программных кодов и оказания поддержки клиентам.

ChatGPT — это новая диалоговая платформа на основе искусственного интеллекта. Она похожа на продвинутый чат-бот, который уже используют многие компании, например банки и универмаги. Платформа обучена следовать инструкциям пользователя и дает быстрые и подробные ответы.

Примеры запросов, с которыми может помочь ChatGPT:1

  • «Объясни простыми словами, что такое квантовые вычисления.»
  • «Нужны какие-нибудь креативные идеи для празднования дня рождения десятилетнего ребенка?»
  • «Как сделать HTTP-запрос в Javascript?»

ChatGPT генерирует текстовый диалоговый ответ с использованием ИИ и нейронных сетей. В ноябре 2022 года была выпущена так называемая «большая языковая модель», что привлекло более 100 миллионов уникальных пользователей всего за два месяца2.

ChatGPT уже продемонстрировал эффективность при написании программного кода или поиске ошибок, написании эссе и стихов, а также при составлении простых рекомендаций. Многие эксперты говорят о том, что платформа ChatGPT с ее впечатляющими возможностями может трансформировать сферу здравоохранения и отстаивают ее потенциальные преимущества. Однако, другая часть специалистов опасается  проблем и неопределенности, связанных с применением такого инструмента.

gpt
ChatGPT в сфере здравоохранения

ИИ и машинное обучение могут принести много пользы для здравоохранения, в том числе улучшить рабочие процессы персонала, способствовать преодолению кризиса дефицита кадров, обеспечить экспертными знаниями медицинские центры с небольшим опытом работы и расширить доступ пациентов к медицинской информации и услугам здравоохранения. Эти достижения могут стать основой применения ChatGPT в нескольких областях деятельности систем здравоохранения.

 

Телемедицинская помощь

 

Всё более широко применяется телемедицина, позволяющая пациентам связываться с медицинскими работниками не выходя из дома и устраняет необходимость личного посещения врача. Услуги телемедицины включают получение результатов анализов, назначения и дистанционное наблюдение за хроническими заболеваниями, например за высоким артериальным давлением или уровнем глюкозы. Пациенты могут даже получать базовые врачебные консультации и получать ответы на свои вопросы в течение двух рабочих дней.

ChatGPT может форсировать развитие сферы телемедицинских услуг, если использовать данную технологию для планирования посещений врачей и подготовки ответов на часто задаваемые вопросы. В последнем случае ChatGPT позволяет снизить нагрузку на медицинских работников, потому что им не нужно отвечать на вопросы пациентов напрямую, а пациенты при этом своевременно получают необходимую информацию.

 

Управление клиническими исследованиями и набор участников

 

Клинические исследования имеют решающее значение в процессе разработки препаратов. Благодаря этим исследованиям медицинское сообщество получает более достоверные сведения о безопасности, переносимости и эффективности нового терапевтического средства. Однако набор пациентов для участия в клинических исследованиях может быть серьезной проблемой. Приблизительно 55 % исследований прекращается в связи с низким показателем набора участников. На III и IV фазах исследований средний показатель эффективности набора участников составляет менее 40%; в более чем 80% исследований во всем мире не соблюдаются сроки набора участников3.

Существует несколько причин неудач при наборе участников исследования. К ним относятся большой объем административной работы, недостаток пациентов, соответствующих критериям включения в исследование, высокая нагрузка на пациентов и недостаточное материально-техническое обеспечение4. Большая часть этих проблем связана с необходимостью личного скрининга пациентов организаторами клинических исследований, что является причиной значительного увеличения времени работы персонала и необходимого финансирования.
ChatGPT может решить эти проблемы путем оптимизации процесса набора участников. В частности, соответствие пациентов критериям включения в исследование может проверяться посредством взаимодействия пациентов с ChatGPT. Также ChatGPT может давать пациентам ответы на часто задаваемые вопросы, при этом каждый пациент будет понимать, что его ждет в рамках исследования (например, какое лечение, анализы и визиты в клинику). Это позволило бы сократить затраты и время, связанные с очным скринингом.

 

Обучение в области психического здоровья

 

Только в США ежегодно у каждого пятого взрослого развивается психическое заболевание, и 75% людей имеют какое-либо психическое заболевание к 24 годам.По данным Всемирной организации здравоохранения, депрессия является одной из основных причин инвалидизации во всем мире.6

Хотя платформа ChatGPT не может заменить медицинского специалиста или клинически подготовленного психолога, она может быть источником образования в области психического здоровья. ChatGPT может предоставить стратегии преодоления трудностей и информацию о психических расстройствах, а также найти специалистов, оказывающих психологическую помощь.7

Некоторые сторонники применения ChatGPT считают, что эта технология может быть использована при легких и распространенных психических расстройствах, например при тревожном расстройстве. Особенно это актуально, когда не хватает специалистов в области оказания психологической помощи8, что было особенно заметно в период пандемии COVID-19. В то время многие пациенты страдали от проблем со стороны психики9. ChatGPT позволяет восполнить пробелы в знаниях, когда люди нуждаются в быстрых ответах на свои вопросы.

 

Написание и перевод медицинских текстов

 

Медицинские работники обязаны регистрировать посещения пациентов и фиксировать симптомы, стратегии лечения и диагностические мероприятия в документации. В некоторых случаях специалисты используют медицинскую терминологию в клинических записях. ChatGPT позволяет «перевести» эту информацию на доступный язык общения, чтобы пациенты и ухаживающие за ними лица могли легко ее понять.

Таким образом, своевременно предоставляя пациентам необходимую информацию, можно снизить нагрузку на врачей. Глобально, ChatGPT позволяет адекватно переводить медицинские тексты, написанные на различных языках, значительно расширяя возможности интерпретации клинических знаний в мировом масштабе.

Недавно Лю (Lyu) с коллегами провели исследование способности ChatGPT общедоступным языком объяснять рентгенологические отчеты пациентам и медицинским работникам. Исследователи обнаружили, что платформа ChatGPT адекватно перевела отчеты по результатам КТ-скрининга на рак легкого и по результатам МРТ-скрининга на метастазы головного мозга. В целом, полученные данные указывают на то, что ChatGPT успешно помогает предоставлять клиническую информацию.10

 

Сортировка пациентов

 

Сортировка пациентов — это их классификация для определения потребностей и места лечения. Например, в период пандемии COVID-19 проводилась сортировка пациентов, позволяющая оказывать надлежащую медицинскую помощь без перегрузки клиник и больниц. Пациентам с легкими симптомами советовали оставаться на карантине дома, в то время как пациентам, имеющим серьезные проблемы с дыханием, было рекомендовано обратиться в отделение неотложной помощи.

ChatGPT может сократить время ожидания пациентов и использоваться для быстрой оценки ситуации, что, как правило, выполняется медицинскими работниками. Таким образом, снизится число ошибок медицинских работников, а врачи смогут выполнять более важные задачи.11

 

Недостатки ChatGPT

 

Компания OpenAI, разработавшая ChatGPT, обозначила ряд ограничений, которые могут препятствовать использованию технологии в здравоохранении. Ниже приведены фрагменты текста об ограничениях с сайта компании OpenAI1.

  • «ChatGPT иногда пишет правдоподобно звучащие, но неверные или бессмысленные ответы. Решить эту проблему непросто.»
    «ChatGPT чувствителен к правкам вводимой фразы или неоднократным повторам одного и того же запроса.»
  • «Модель нередко чрезмерно многословна и слишком часто употребляет определенные фразы.»
  • «В идеале, модель должна задавать уточняющие вопросы, когда пользователь делает неоднозначный запрос. Вместо этого наши текущие модели обычно пытаются угадать, что пользователь имел в виду.»
  • «Несмотря на то, что мы постарались заставить модель отвечать отказом на неприемлемые запросы, иногда она будет реагировать на введение некорректного условия или выдавать ошибочные алгоритмы.»
gpt2
Ограничения и проблемы, связанные с использованием ChatGPT в сфере здравоохранения

В связи с ограничениями ChatGPT появилось несколько этических проблем, которые необходимо решить, прежде чем диалоговый инструмент на основе ИИ станет широко использоваться в медицинских организациях.

Основной проблемой являются пациенты, обращающиеся к ChatGPT для диагностирования заболеваний и получения рекомендаций по лечению. Пациентам нужны быстрые и доступные ответы. Проблема заключается в том, что симптомы заболеваний по своей сути неоднозначны, и ввод данных о них в ChatGPT может привести к проблемам с безопасностью пациента.

Поскольку ChatGPT это большая языковая модель, источник информации может содержать систематические ошибки и неприемлемые ответы, что ограничивает применение данного инструмента.12 Важно отметить, что такие инструменты, как ChatGPT, не смогут полностью заменить врачей, прошедших клиническую подготовку, а станут скорее вспомогательным средством для медицинских работников.

Еще одна проблема заключается в том, что на сегодняшний день знания ChatGPT ограничены периодом до 2021 года.13 Поскольку сфера здравоохранения постоянно развивается и каждый день публикуются новые научные данные и результаты клинических исследований, это ограничение помешает пациентам получать самую актуальную информацию.

Еще одна проблема связана с конфиденциальностью и защитой данных.12 В марте создатели ChatGPT, OpenAI, сообщили об ошибке, которая привела к отображению истории пользовательского чата другим активным пользователям и к «непреднамеренному отображению информации, связанной с платежами» у небольшого числа пользователей, имеющих подписку на ChatGPT Plus.14 Хотя компания OpenAI заявила, что они гарантируют конфиденциальность пользователей и защиту данных, это сообщение встревожило сообщество специалистов по кибербезопасности.15,16

Компания OpenAI утверждала, что продолжает уделять внимание конфиденциальности данных и безопасности платформы. В апреле создатели платформы предложили пользователям возможность самим управлять своими данными, позволив отключать фиксацию истории чата для постоянных клиентов. Данная функция обеспечивает некоторое повышение конфиденциальности, так как в таком случае эти диалоги не будут использоваться для обучения моделей ChatGPT.17

Наконец, важнейшая проблема ChatGPT связана с юридической ответственностью и правовыми последствиями и заключается в непонимании того, кто отвечает за решение вышеописанных вопросов — создатели платформы или непосредственно система здравоохранения.18 Руководители из сферы здравоохранения уже ставят под сомнение отслеживаемость и возможность снижения рисков платформы на основе ИИ.19,20

Технические специалисты из сферы здравоохранения еще не определили, как ChatGPT обрабатывает конфиденциальные данные пациентов и использует данные в долгосрочной перспективе. Кроме того, так как специалисты из сферы здравоохранения экспериментируют с ChatGPT, крайне важно понять, насколько обработка данных соответствует законодательству, например Закону США об унификации и учете в области медицинского страхования (HIPAA) и Общему регламенту ЕС по защите данных (GDPR).21,22 В конечном итоге, допустимость использования ChatGPT и мониторинг со стороны регуляторных или государственных органов власти несомненно будут варьироваться от страны к стране.

В будущем компании OpenAI, возможно, потребуется тесно сотрудничать со специалистами из сферы здравоохранения, чтобы данные проходили тщательную проверку специалистами из сферы здравоохранения и пользователи получали только достоверную информацию.

 

Будущее ChatGPT в здравоохранении

 

ChatGPT может кардинально изменить систему здравоохранения, начиная с обеспечения доступа к ресурсам для поддержания психического здоровья и заканчивая сортировкой пациентов по соответствующим медицинским учреждениям. Хотя создатели ChatGPT периодически обновляют инструмент, он еще на начальной стадии разработки и подвержен ряду ограничений и проблем. Таким образом, с учётом текущих технических ограничений, внедрение технологии ChatGPT в современную систему здравоохранения затруднительно.

По мере интеграции ИИ в здравоохранение и валидации больших языковых моделей руководителям сферы здравоохранения необходимо следить за этой областью, и думать о том, как можно использовать эти передовые технологии для поддержания деятельности организаций и улучшения исходов пациентов.

Основные идеи

  • ChatGPT — это инструмент на основе искусственного интеллекта, генерирующий подробные диалоговые текстовые ответы на запросы пользователей. Такой инструмент способен повысить эффективность и рентабельность медицинских организаций.
  • Области применения ChatGPT включают в себя телемедицину, управление клиническими исследованиями и сортировку пациентов.
  • Перед внедрением ChatGPT в систему здравоохранения необходимо решить ряд вопросов, связанных с безопасностью пациентов, защитой данных и юридической ответственностью.

 

  1. OpenAI. Information available fromhttps://openai.com/blog/chatgpt. [Accessed May 2023]
  2. Milmo D. (2023). The Guardian. Article available from https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app. [Accessed May 2023]
  3. Desai M. (2020) Perspect Clin Res. 11(2): 51–53. Article available from https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7342339/. [Accessed May 2023]
  4. Sampat K. (2021). Clinical Trial Podcast. Article available from https://clinicaltrialpodcast.com/patient-recruitment-failure-clinical-trials/. [Accessed May 2023]
  5. National Alliance on Mental Health. (2023). Article available from https://www.nami.org/mhstats. [Accessed May 2023]
  6. World Health Organization (WHO). Information available from https://www.who.int/health-topics/mental-health. [Accessed May 2023]
  7. Pratt N. (2023). Psychiatric Times. Article available from https://www.psychiatrictimes.com/view/chatgpt-artificial-intelligence-mental-health. [Accessed May 2023]
  8. Hale E. (2023). Al Jazeera. Article available from ​​https://www.aljazeera.com/economy/2023/4/27/could-your-next-therapist-be-ai-tech-raises-hopes-concerns. [Accessed May 2023]
  9. USAFacts. (2021). Article available from  https://usafacts.org/articles/over-one-third-of-americans-live-in-areas-lacking-mental-health-professionals/. [Accessed May 2023]
  10. Lyu Q et al. (2023). arXiv. 2303.09038v3. Article available from https://arxiv.org/abs/2303.09038. [Accessed May 2023]
  11. Bhattaram S et al. (2023). Am J Emerg Med. S0735-6757(23)00142-0. Article available from https://doi.org/10.1016/j.ajem.2023.03.027. [Accessed May 2023]
  12. Asch D. (2023) NEJM Catalyst. Article available from https://catalyst.nejm.org/doi/full/10.1056/CAT.23.0043. [Accessed May 2023]
  13. Open AI. (2023). Article available from https://help.openai.com/en/articles/6783457-what-is-chatgpt [Accessed June 2023]
  14. Open AI. (2023) https://openai.com/blog/march-20-chatgpt-outage [Accessed June 2023]
  15. Cyber Security Hub. (2023) Article available from https://www.cshub.com/data/news/openai-confirms-chatgpt-data-breach [Accessed June 2023]
  16. Security Intelligence. (2023). Article available from https://securityintelligence.com/articles/chatgpt-confirms-data-breach/ [Accessed June 2023] 
  17. Open AI. (2023). Article available from  https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt [Accessed June 2023]
  18. Eliot L. (2023). Forbes. Article available from  https://www.forbes.com/sites/lanceeliot/2023/04/10/when-you-use-chatgpt-you-could-be-legally-liable-ai-ethics-and-law-experts-warn/?sh=40ee06397c34. [Accessed May 2023] 
  19. Med City News. (2023). Article available from https://medcitynews.com/2023/04/healthcare-leaders-must-come-together-to-mitigate-chatgpt-risks-experts-urge/ [Accessed June 2023]
  20. Chief Healthcare Executive. (2023). Article available from https://www.chiefhealthcareexecutive.com/view/managing-the-benefits-and-risks-of-ai-in-healthcare-jon-moore [Accessed June 2023]
  21. Harvey Castro. (2023). Article available from https://www.kevinmd.com/2023/02/ai-in-health-care-meeting-hipaa-standards-with-chatgpt.html [Accessed June 2023]
  22. Clothilde Goujard and Gian Volpicelli. (2023). Article available from https://www.politico.eu/article/chatgpt-world-regulatory-pain-eu-privacy-data-protection-gdpr/  [Accessed June 2023]