situs togel dentoto https://sabalansteel.com/ https://dentoto.cc/ https://dentoto.vip/ https://dentoto.live/ https://dentoto.link/ situs togel situs toto toto 4d dentoto omtogel http://jeniferseo.my.id/ https://seomex.org/ omtogel
omtogel situs toto togel 4d terpercaya omtogel omtogel https://forum.npost.tw/ omtogel omtogel
Президент поздравил кыргызстанцев с Днем защитника ОтечестваРоссийский альпинист Евгений Глазунов погиб при спуске с пика Аксу в Лейлеке

"Развитие искусственного интеллекта становится угрозой биобезопасности"

 

Фотографии: vb.kg

23 февраля 2024, 12:00       Источник vb.kg       Комментарии

Сегодня серьезные угрозы в сфере биологической безопасности эксперты связывают с использованием, так называемых, Language models – больших языковых моделей в сфере биоинженерии и биоинформатики, рассказал главный научный сотрудник Центра глобальных исследований и международных отношений ИАМП Дипакадемии МИД РФ Вадим Козюлин.
"AIX bio – обозначение облачных биоинженерных лабораторий, где с помощью искусственного интеллекта сегодня можно сделать то, что раньше производили в специальных лабораториях с помощью пробирок и реагентов путем проведения опытов и ожидания физических реакций. Т.е. виртуальные опыты, могут давать вполне реальный результат", - поделился информацией спикер в рамках круглого стола: "Перспективы сотрудничества стран ЦА в обеспечении биологической безопасности и контроле эпидемиологической ситуации", организованного Центром экспертных инициатив "Ой Ордо" в партнерстве с Советом по устойчивому развитию в условиях изменения климата при спикере ЖК КР.
Он пояснил, что языковые модели позволяют извлекать чувствительную информацию, а облачные модели – моделировать создание опасных продуктов в онлайн-режиме без проведения длительных исследований и экспериментов. Например, на Международной конференции был представлен такой факт: в результате одного эксперимента ИИ за 6 часов изобрёл 40 тыс. ядовитых для человека соединений, включая нервнопаралитический газ VX.
В этой связи В. Козюлин привел слова бывшей замминистра обороны США Мишель Флурнуа: "Химики предупреждают, что искусственный интеллект может синтезировать химическое оружие, а биологи выразили обеспокоенность тем, что он может быть использован для разработки новых патогенов или биооружия. Риски настолько серьезные, что даже лидеры индустрии ИИ выразили тревогу".
"В мае 2023 года руководители практически всех крупных лабораторий ИИ в США подписали коллективное письмо с предупреждением о том, что их изобретения могут представлять угрозу существованию человечества, - напомнил спикер. - Этот факт заслуживает особого внимания, необходимо учитывать эти риски и предотвращать использование биолабораторий на базе ИИ. Особенно с учетом глобального распространения американских биотехнологий проблема может приобрести глобальный характер и стать реальной угрозой для всех государств в мире".
Говоря о превентивных мерах в плане предупреждения использования потенциала ИИ в немирных целях, он озвучил ряд шагов, которые необходимо предпринять уже сейчас.
"Необходимо, налаживать международное сотрудничество и взаимодействие для укрепления глобальной безопасности, в том числе, при использовании этих больших языковых моделей в области здравоохранения. Развитие межакадемического партнерства, обмен информацией о потенциальных биологических рисках между профильными организациями. Обращаю внимание, что межакадемическое партнерство требуется не только для биологов или государственных служб, необходимо подключить и информационных специалистов, которые понимают, как эти механизмы работают, и где могут происходить утечки, откуда берется информация, как она обрабатывается, и как впоследствии может использоваться", - отметил В. Козюлин.
Также, по его словам, необходимо реализовывать образовательные о потенциальных биологических рисках проекты для специалистов, работающих в этом направлении: "Имея определенное стремление добиться каких-то новых результатов, они редко задумываются о тех проблемах, которые может создать для человечества то, что они производят".
Кроме того нужно устанавливать общепринятые руководящие принципы для международной практики биобезопасности, разрабатывать более строгие международные кодексы поведения и требовать определённого государственного контроля за высоко рискованными исследованиями. Необходимо установить стандарты тестирования для новых моделей. И конечно же нужны специалисты, которые будут это контролировать.
"Эти языковые модели стремительно ворвались в жизнь человечества, мы о них узнали в конце 2022 года. И сегодня взрывным образом происходит возникновение новых программ. Разработчики конкурируют друг с другом, потому что эта сфера как возникновение нового интернета. Все видят его перспективу, и не остается времени, чтобы осмыслить, что мы делаем в этой области. Риски очевидны, но и как с ними бороться пока не известно. Они находят применение в производственной, научной, творческой и военно-политической сфере. Поэтому необходимо уделять этой теме особое внимание. Россия, Кыргызстан, Казахстан и другие государства СНГ имеют возможность стать идеологами и вдохновителями международного регулирования этой взрывоопасной технологии", - добавил В. Козюлин.
Автор: Наталья Крек
Сообщи свою новость:

 

SAPE:

 

АГРОПОРТАЛ КЫРГЫЗСТАНА, НОВОСТИ СЕЛЬСКОГО ХОЗЯЙСТВА
Обучение ювелирному делу в Бишкеке
МСН Общественно-политическая газета

18+

FOR.kg - Кыргызстан новости, пресса

Поисковый сайт новостей (новостной агрегатор, агрегатор СМИ) FOR.kg

Прежде прочтите Соглашение по использованию поискового сайта FOR.kg

При использовании материалов сайта FOR.kg - ссылка на источник обязательна

По всем вопросам обращайтесь в Службу поддержки

Top.Mail.Ru