Их работа была опубликована в журнале Nature и привлекла внимание к потенциальным проблемам в этой области.
Ученые предупреждают, что большие языковые модели ИИ могут давать неверные результаты, если их обучать на фейковой информации или антинаучных данных. В ходе эксперимента выяснили, что даже минимальное количество дезинформации — всего 0,001 процента — уже может привести к серьезным ошибкам в ответах нейросетей.
Для своих испытаний исследователи использовали медицинскую базу данных The Pile, выбрав 20 тем из таких областей, как общая медицина, нейрохирургия и фармакология. В качестве тестовой модели была выбрана GPT 3.5. Результаты показали, что модели не только давали неверные ответы на прямые вопросы, но и ошибались в смежных темах. Это создает риск манипуляций с ИИ, что вызывает серьезные опасения.
При уровне дезинформации в 0,01 процента модели стали ошибаться в 10 процентах случаев. Если же процент фейковых данных снижался до 0,001, то количество ошибок в ответах увеличивалось до 7 процентов. Ученые отметили, что люди часто обращаются к чат-ботам за информацией, не проверяя ее у специалистов, что подчеркивает необходимость тщательной проверки данных, используемых для обучения моделей.
В свете этих открытий эксперты из Bloomberg Intelligence также обсудили влияние ИИ на трудовой рынок. В течение ближайших трех-пяти лет крупнейшие банки могут сократить до 200 тысяч сотрудников в связи с внедрением автоматизации. Четверть опрошенных респондентов считает, что это приведет к сокращению общей численности персонала на 5-10 процентов.
Таким образом, развитие технологий искусственного интеллекта ставит перед обществом новые вызовы, требуя внимательного отношения к качеству данных и их источникам.




