Спрашиваешь совет о здоровье у чат-бота? После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов

Ирина Орлонская Эксклюзив
VK X OK WhatsApp Telegram
Автор статьи — K-News. Разрешение редакции K-News требуется для копирования или частичного использования материала.

С запуском ChatGPT Health от OpenAI возникло множество вопросов о целесообразности обращения к ИИ-чатботам за медицинскими рекомендациями.

С увеличением числа пользователей, обращающихся за советом к чат-ботам, стало лишь вопросом времени, когда компании начнут предлагать решения, посвященные медицинским вопросам.

OpenAI выпустила ChatGPT Health — усовершенствованную версию своего чат-бота, которая, по заявлению разработчиков, способна анализировать медицинские данные пользователей, включая записи о состоянии здоровья и данные с носимых устройств, чтобы предоставлять информацию о здоровье.

На данный момент доступ к программе осуществляется через лист ожидания. Конкурирующая компания Anthropic также предлагает аналогичные функции в своем чат-боте Claude для определенной группы пользователей.

В обеих компаниях подчеркивают, что их технологии не предназначены для замены профессиональной медицинской помощи и не должны использоваться для постановки диагнозов. Они могут быть полезны для обобщения и разъяснения сложных результатов медицинских анализов, подготовки к визиту к врачу или выявления значительных тенденций в состоянии здоровья, которые могут быть скрыты в медицинских записях и статистических данных.

Но насколько надежно и безопасно они анализируют данные о состоянии здоровья? И стоит ли на них полагаться?

Вот несколько важных моментов, на которые стоит обратить внимание, прежде чем обсуждать свое здоровье с чат-ботом:

Чат-боты могут предложить более индивидуализированную информацию, чем традиционный поиск в интернете

Некоторые медики и исследователи, тестировавшие ChatGPT Health и аналогичные платформы, считают, что это шаг вперед по сравнению с существующими методами.

Хотя ИИ-системы не идеальны и могут иногда ошибаться или предоставлять неадекватные советы, информация, которую они предоставляют, зачастую более адаптирована к конкретной ситуации, чем то, что можно найти через Google.

Как отметил доктор Роберт Вахтер из Калифорнийского университета в Сан-Франциско: «Часто альтернатива — это отсутствие информации или действия наугад. Поэтому, если использовать эти инструменты ответственно, можно получить действительно полезные сведения».

В странах, таких как Великобритания и США, где ожидание приема у врача может затянуться на недели, а время в отделениях неотложной помощи может быть долгим, чат-боты могут помочь снизить уровень тревоги и сэкономить время.

Кроме того, они могут указать на необходимость срочной медицинской помощи в случае серьезных симптомов.

Одним из преимуществ новых чат-ботов является то, что они могут адаптировать свои ответы в зависимости от медицинской истории пользователя, включая принимаемые препараты, возраст и предыдущие записи врача.

Даже если вы не предоставляете ИИ доступ к своим медицинским данным, Вахтер и другие эксперты рекомендуют предоставлять как можно больше информации, чтобы ответы были более точными.

Не обращайтесь к ИИ при наличии тревожных симптомов

Эксперты, включая Вахтера, подчеркивают, что в некоторых ситуациях лучше всего обратиться за помощью к врачу, а не к чат-боту. Симптомы, такие как одышка, боль в груди или сильная головная боль, требуют немедленного медицинского внимания.

Даже в менее критических ситуациях пациенты и врачи должны быть осторожны с программами ИИ, говорит доктор Ллойд Майнор из Стэнфордского университета.

«При принятии значимых медицинских решений или даже по менее важным вопросам здоровья нельзя полагаться исключительно на выводы, предоставляемые большими языковыми моделями», — добавляет Майнор, декан медицинской школы Стэнфорда.

Даже в случаях, таких как синдром поликистозных яичников (СПКЯ), где симптомы могут варьироваться, лучше обратиться к врачу, так как это повлияет на выбор лечения.

Обратите внимание на конфиденциальность, прежде чем загружать медицинские данные

Многие преимущества, которые предлагают ИИ-боты, зависят от того, насколько охотно пользователи делятся личной медицинской информацией. Важно помнить, что данные, передаваемые разработчикам ИИ, обычно не защищены федеральными законами о конфиденциальности в США, которые регулируют обращение с чувствительными медицинскими данными.

Закон HIPAA защищает медицинские сведения и налагает штрафы на медицинские учреждения за их разглашение. Однако он не применяется к компаниям, создающим чат-боты.

«Когда человек загружает свою медицинскую карту в большую языковую модель, это совсем не то же самое, что передать ее новому врачу», — объясняет Майнор. «Потребители должны осознавать, что стандарты конфиденциальности здесь совершенно разные».

В OpenAI и Anthropic утверждают, что данные пользователей хранятся отдельно и защищены дополнительными мерами безопасности. Компании не используют медицинские данные для обучения своих моделей. Пользователи должны отдельно согласиться на передачу такой информации и могут в любой момент отказаться от этого.

Несмотря на растущий интерес к ИИ, независимые исследования таких технологий находятся на начальной стадии. Первые результаты показывают, что программы, подобные ChatGPT, успешно справляются с медицинскими экзаменами, но не всегда могут взаимодействовать с живыми людьми.

Исследование Оксфордского университета с участием 1300 человек показало, что пользователи ИИ-чат-ботов для поиска информации о гипотетических заболеваниях не принимали более обоснованных решений, чем те, кто пользовался традиционным онлайн-поиском или собственными суждениями.

В случаях, когда ИИ-чат-ботам предлагали медицинские сценарии в письменном виде, они правильно определяли основное заболевание в 95 процентах случаев.

«В этом не было проблем, — говорит ведущий автор исследования Адам Махди из Оксфордского университета. — Все сложности возникали на этапе общения с реальными участниками».

Махди и его команда выявили множество проблем в коммуникации. Люди часто не предоставляли чат-ботам достаточной информации для точной диагностики. В свою очередь, системы ИИ нередко давали смешанные ответы, что затрудняло пользователям различение верной и неверной информации.

Исследование, проведенное в 2024 году, не включало тестирование новейших версий чат-ботов, включая ChatGPT Health.

Второе мнение от ИИ может оказаться полезным

Способность чат-ботов задавать уточняющие вопросы и извлекать важные детали у пользователей является областью, где, по мнению Вахтера, еще есть возможности для улучшения.

«Я полагаю, они станут действительно эффективными, когда их подход к общению с пациентами будет более «врачебным», и диалог станет напоминать настоящий разговор», — считает Вахтер.

Тем не менее, одним из способов повысить уверенность в полученной информации является использование нескольких чат-ботов, как это делают пациенты, обращаясь за вторым мнением к другому врачу.

«Иногда я ввожу одни и те же данные в ChatGPT и Gemini, — делится Вахтер, имея в виду ИИ-инструмент от Google. — И когда их ответы совпадают, я чувствую себя более уверенно в том, что это правильный ответ».

Запись Обращение за медицинским советом к чат-боту: стоит ли это делать? Новый сервис ChatGPT Health от OpenAI вызывает вопросы впервые появилась K-News.
VK X OK WhatsApp Telegram

Читайте также: