Новое исследование выявило тревожную тенденцию: чат-боты с искусственным интеллектом, включая популярные модели, могут предоставлять неточную и потенциально опасную информацию на медицинские запросы. Исследователи обнаружили, что при ответах на вопросы, связанные со здоровьем, чат-боты часто генерируют неверную информацию. В некоторых случаях до 90% сгенерированного контента содержало ошибки, устаревшие данные или полностью вымышленные факты, которые подавались с высокой степенью уверенности. Это явление известно как «галлюцинации» ИИ. Проблема усугубляется тем, что ИИ-инструменты могут использоваться для массового создания фейковых новостных сайтов о здоровье, которые выглядят убедительно, но распространяют опасные заблуждения. Люди, ищущие в интернете информацию о своих симптомах, могут столкнуться с такой дезинформацией, что приведет к неправильному самолечению и отказу от обращения к врачу. Эксперты в области здравоохранения и кибербезопасности бьют тревогу и настоятельно рекомендуют не использовать чат-боты в качестве замены профессиональной медицинской консультации. Для получения достоверной информации о здоровье следует обращаться только к квалифицированным врачам и проверенным медицинским источникам.