Галлюцинация нейросетей

Материал из Поле цифровой дидактики


Описание Галлюцинации нейросети — это когда модель ИИ выдаёт правдоподобную, но неверную или выдуманную информацию, вместо фактических данных. Это происходит, потому что ИИ учится на закономерностях в данных, а не на реальных знаниях, и может "додумывать" ответы, если информация в его обучающих данных была неполной или противоречивой. Примеры включают выдуманные факты, неправильные даты, или изображения с неестественными элементами, такими как дополнительные конечности.
Область знаний Информатика, Педагогика, Образование, Большие данные
Авторы Александр Мордвинцев и его коллеги из Google, Майк Тика, Кристофер Олах
Поясняющее видео https://m.youtube.com/watch?v=qMHhJbJTyRg&pp=0gcJCWIABgo59PVc
Близкие понятия Конфабуляция, Неверные предикты, Фальсификация
Среды и средства для освоения понятия YandexGPT, Gigachat, Kandinsky, Шедеврум

Точного автора термина «галлюцинации нейросети» назвать сложно, поскольку он появился в ходе развития и активного обсуждения проблем больших языковых моделей. Этот термин не был изобретен одним человеком, а скорее возник и закрепился в сообществе исследователей и разработчиков, которые столкнулись с проблемой генерации правдоподобной, но фактически неверной информации