
Ученые из Швеции провели тревожный эксперимент, опубликовав два научных препринта о несуществующем заболевании — «биксонимании». Согласно выдуманному описанию, болезнь вызывает интенсивный синий свет от экранов, а ее симптомы включают боль, зуд в глазах и розоватый оттенок вокруг них. Целью исследования было проверить, насколько легко системы искусственного интеллекта распространяют дезинформацию.
Результаты оказались шокирующими. Популярные чат-боты, включая ChatGPT, Perplexity и Gemini, быстро подхватили информацию и начали описывать биксониманию как «интригующее и редкое заболевание». В ответах на вопросы пользователей ИИ рекомендовал при появлении симптомов обращаться к офтальмологу, тем самым легитимизируя фиктивный диагноз.
Даже после попыток удалить данные о пранке из систем, полностью искоренить ложную информацию не удалось. Некоторые версии ботов до сих пор называют биксониманию то выдуманной, то «малоизученной» болезнью, демонстрируя устойчивость галлюцинаций ИИ.
Что еще более тревожно, поддельные статьи о биксонимании начали цитировать в рецензируемых научных публикациях другие исследователи. Это произошло несмотря на то, что в оригинальную работу были намеренно включены выдуманные имена авторов, абсурдные термины и прямая пометка: «Вся эта статья выдумана».
Этот эксперимент ярко иллюстрирует серьезную проблему: слепое доверие к информации, генерируемой искусственным интеллектом, особенно в такой чувствительной сфере, как здоровье, может быть опасно. Нейросети, обученные на огромных массивах данных из интернета, легко подхватывают и воспроизводят ложные сведения, придавая им видимость достоверности за счет уверенного тона и структурированного изложения.
Вывод очевиден: ИИ-ассистенты могут быть полезными инструментами, но они не заменяют критического мышления и проверки информации у авторитетных источников, особенно когда речь идет о медицинских диагнозах и рекомендациях. Доверяйте, но всегда проверяйте.




