Медицинские чат-боты могут выйти из строя из-за малейшей дезинформации

Исследования, проведенные учеными из Нью-Йоркского университета, показали, что медицинские языковые модели (LLM), которые активно применяются в здравоохранении, могут стать жертвами дезинформации даже в минимальных дозах.

22/01/2025
Медицинские чат-боты могут выйти из строя из-за малейшей дезинформации