Галлюцинация нейросетей
Материал из Поле цифровой дидактики
| Описание | Галлюцинации нейросети — это когда модель ИИ выдаёт правдоподобную, но неверную или выдуманную информацию, вместо фактических данных. Это происходит, потому что ИИ учится на закономерностях в данных, а не на реальных знаниях, и может "додумывать" ответы, если информация в его обучающих данных была неполной или противоречивой. Примеры включают выдуманные факты, неправильные даты, или изображения с неестественными элементами, такими как дополнительные конечности. |
|---|---|
| Область знаний | Информатика, Педагогика, Образование, Большие данные |
| Авторы | Александр Мордвинцев и его коллеги из Google, Майк Тика, Кристофер Олах |
| Поясняющее видео | https://m.youtube.com/watch?v=qMHhJbJTyRg&pp=0gcJCWIABgo59PVc |
| Близкие понятия | Конфабуляция, Неверные предикты, Фальсификация |
| Среды и средства для освоения понятия | YandexGPT, Gigachat, Kandinsky, Шедеврум |
Точного автора термина «галлюцинации нейросети» назвать сложно, поскольку он появился в ходе развития и активного обсуждения проблем больших языковых моделей. Этот термин не был изобретен одним человеком, а скорее возник и закрепился в сообществе исследователей и разработчиков, которые столкнулись с проблемой генерации правдоподобной, но фактически неверной информации
