17 мая 2023, 22:44
Источник 24.kg
Комментарии
Всемирная организация здравоохранения призывает в вопросах медицины относиться к "познаниям", созданным искусственным интеллектом больших языковых моделей, "с осторожностью". Об этом сообщают "Новости ООН".
Речь идет о таких быстро набирающих популярность платформах, как ChatGPT, Bard, Bert и других, которые имитируют человеческое общение. Их стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здравоохранением, вызывает значительный интерес и настороженность экспертов ВОЗ. Они считают, что необходимо тщательно изучить риски, возникающие при их использовании, особенно принимая связанные со здоровьем решения.
В организации в целом с энтузиазмом относятся к надлежащему использованию новых технологий для поддержки медицинских работников, но в то же время эксперты опасаются, что поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к искусственному интеллекту и тем самым отсрочить применение таких технологий во всем мире.
Среди проблем, связанных с применением больших языковых моделей в здравоохранении, вызывает обеспокоенность, например, качество данных, используемых для обучения искусственного интеллекта - они могут быть предвзятыми или неточным и представлять риск для здоровья.
"Языковые модели также могут не защищать конфиденциальные данные, которые пользователь предоставляет приложению для создания ответа. Ответы, сгенерированные языковой моделью, могут казаться авторитетными и правдоподобными для конечного пользователя. Однако они могут быть полностью неверными или содержать серьезные ошибки, а также использоваться не по назначению, например для создания и распространения весьма убедительной дезинформации в виде текстового, аудио- или видеоконтента", - говорится в сообщении.
ВОЗ предлагает разобраться с этими проблемами и получить четкие доказательства пользы больших языковых моделей до их широкого использования в здравоохранении и медицине.