Поддержать команду Зеркала
Беларусы на войне
  1. «И как жить?» В TikTok показали расчетный на одном из предприятий со скромными суммами — это вызвало обсуждение
  2. 83 дня ада. Этот человек за секунду получил рекордную в истории дозу радиации — что было дальше
  3. Так что же за загадочный объект строят власти на заброшенной базе под Слуцком? В BELPOL дали точный и пугающий ответ
  4. «Сколько же он работал, как он вкладывался». У главы Минздрава возникли вопросы к одному из бравурных заявлений Лукашенко на ВНС
  5. Курс доллара будет расти перед новогодними праздниками? Прогноз для валют
  6. «Разговор был непростой». Последний гость в проекте Никиты Мелкозерова рассказал, как давал ему интервью
  7. Беларусам предложили «удобные» полеты в Европу. Но не спешите радоваться
  8. Однажды тысячи беларусов вернулись из эмиграции. Рассказываем, какой они нашли родину после отъезда — и что с ними стало дальше
  9. «Я любил этого парня в татуировках». Посмотрели, что пишут друзья, коллеги и герои «жизнь-малина» о Никите Мелкозерове
  10. Правительство вводит изменения, которые касаются больничных, пенсий и взносов в ФСЗН
  11. Власти назвали имена артистов, которые выступят на новогодней дискотеке у Дворца спорта 1 января. В соцсетях удивились: «Кто все эти люди»
  12. Умер Никита Мелкозеров
  13. Россия пошла в «когнитивную» атаку. Что происходит на фронте в Украине, где за сутки произошли десятки боестолкновений
  14. «Бэчебэшник», об убийстве которого говорил Лукашенко, существует и остался жив — представительница ОПК
  15. Экс-политзаключенный Игорь Лосик показал сообщение, которое ему в личку Instagram прислал судебный исполнитель


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.