1111
Что нужно знать, при общении с чат-ботом с искусственным интеллектом за советом по здоровью
Сотни миллионов людей обращаются к чат-ботам за советом, и появление программ, специально разработанных для ответа на вопросы о здоровье, было лишь вопросом времени. В январе OpenAI представила ChatGPT Health — новую версию своего чат-бота, который, по словам компании, может анализировать медицинские карты пользователей, приложения для контроля здоровья и данные с носимых устройств, чтобы отвечать на вопросы о здоровье и медицине. В настоящее время для участия в программе нужно записаться в лист ожидания. Anthropic, конкурирующая компания в сфере искусственного интеллекта, предлагает аналогичные функции для некоторых пользователей своего чат-бота Claude.
Обе компании заявляют, что их программы, известные как большие языковые модели, не заменяют профессиональную медицинскую помощь и не должны использоваться для диагностики заболеваний. Вместо этого, по их словам, чат-боты могут обобщать и объяснять сложные результаты анализов, помогать подготовиться к визиту к врачу или анализировать важные тенденции в области здравоохранения, скрытые в медицинских картах и показателях приложений.
Вот на что стоит обратить внимание, прежде чем разговаривать с чат-ботом о своем здоровье:
Чат-боты могут предоставить более персонализированную информацию, чем поиск в Google
Некоторые врачи и исследователи, работавшие с ChatGPT Health и аналогичными программами, считают, что они лучше, чем то, что было раньше. Платформы с искусственным интеллектом не идеальны — иногда они выдают ложные результаты или дают плохие советы, — но информация, которую они предоставляют, с большей вероятностью будет персонализированной и конкретной, чем то, что пациенты могут найти в Google.
«Зачастую альтернативой является либо ничего, либо пациент действует на свой страх и риск, — говорит доктор Роберт Вахтер, эксперт в области медицинских технологий из Калифорнийского университета в Сан-Франциско. — Поэтому я считаю, что при ответственном подходе к использованию этих инструментов можно получить полезную информацию».
Одно из преимуществ новейших чат-ботов заключается в том, что они отвечают на вопросы пользователей с учетом их истории болезни, включая рецепты, возраст и записи врачей.
Даже если вы не предоставили искусственному интеллекту доступ к своей медицинской информации, Вахтер и другие эксперты рекомендуют сообщать чат-ботам как можно больше подробностей, чтобы улучшить качество ответов.
Если у вас появились тревожные симптомы, откажитесь от использования искусственного интеллекта
Вахтер и другие эксперты подчеркивают, что бывают ситуации, когда не стоит обращаться к чат-боту, а нужно немедленно вызывать скорую помощь. Такие симптомы, как одышка, боль в груди или сильная головная боль, могут указывать на неотложное состояние.
По словам доктора Ллойда Майнора из Стэнфордского университета, даже в менее экстренных ситуациях пациентам и врачам следует относиться к программам искусственного интеллекта «со здоровой долей скептицизма».
«Если речь идет о серьезном медицинском решении или даже о менее значимом решении, касающемся вашего здоровья, никогда не полагайтесь только на то, что выдает большая языковая модель», — сказал Майнор, декан медицинского факультета Стэнфордского университета.
Подумайте о конфиденциальности, прежде чем загружать какие-либо медицинские данные
Многие преимущества, которые дают боты с искусственным интеллектом, связаны с тем, что пользователи делятся с ними личной медицинской информацией. Но важно понимать, что все, чем вы делитесь с компанией, разрабатывающей ИИ, не защищено федеральным законом о конфиденциальности, который обычно регулирует доступ к конфиденциальной медицинской информации.
Закон, широко известный как HIPAA, предусматривает штрафы и даже тюремное заключение для врачей, больниц, страховых компаний и других медицинских учреждений, которые раскрывают медицинские данные. Однако этот закон не распространяется на компании, разрабатывающие чат-ботов.
«Когда кто-то загружает свою медицинскую карту в большую языковую модель, это совсем не то же самое, что передать ее новому врачу, — говорит Майнор. — Потребители должны понимать, что это совершенно разные стандарты конфиденциальности».
И OpenAI, и Anthropic заявляют, что информация о здоровье пользователей хранится отдельно от других типов данных и защищена дополнительными мерами конфиденциальности. Компании не используют данные о здоровье для обучения своих моделей. Пользователи должны дать согласие на передачу своих данных и могут в любой момент отказаться от этого.
Тестирование показало, что чат-боты могут давать сбои
Несмотря на ажиотаж вокруг искусственного интеллекта, независимое тестирование этой технологии находится в зачаточном состоянии. Согласно предварительным исследованиям, такие программы, как ChatGPT, могут успешно справляться с медицинскими тестами высокого уровня сложности, но часто дают сбои при взаимодействии с людьми.
Исследование Оксфордского университета, в котором приняли участие 1300 человек, показало, что люди, использующие чат-ботов с искусственным интеллектом для изучения гипотетических проблем со здоровьем, принимают не более взвешенные решения, чем те, кто полагается на поиск в интернете или собственные суждения.
Чат-боты с искусственным интеллектом, которым в развернутой письменной форме были представлены медицинские сценарии, в 95 % случаев правильно определяли основное заболевание.
«Проблема была не в этом, — сказал ведущий автор исследования Адам Махди из Оксфордского института интернета. — Проблемы возникали во время взаимодействия с реальными участниками».
Махди и его команда выявили несколько проблем в коммуникации. Люди часто не предоставляли чат-ботам необходимую информацию, чтобы те могли правильно определить проблему со здоровьем. С другой стороны, системы искусственного интеллекта часто выдавали как полезную, так и бесполезную информацию, и пользователям было сложно их различать.
В исследовании, проведенном в 2024 году, не использовались последние версии чат-ботов, в том числе новые предложения, такие как ChatGPT Health.
Второе мнение искусственного интеллекта может оказаться полезным
По мнению Вахтера, чат-боты могут задавать уточняющие вопросы и получать от пользователей ключевые сведения, но в этой области есть над чем поработать.
«Думаю, все станет по-настоящему хорошо, когда эти инструменты станут более «врачебными» в том, как они взаимодействуют с пациентами», — сказал Вахтер.
На данный момент один из способов быть уверенным в достоверности получаемой информации — проконсультироваться с несколькими чат-ботами, как если бы вы обратились за вторым мнением к другому врачу.
«Иногда я обращаюсь за информацией к ChatGPT и к Gemini, — сказал Вахтер, имея в виду инструмент искусственного интеллекта от Google. — И когда они оба дают одинаковый ответ, я чувствую себя немного увереннее в том, что это правильный ответ».