США отправят Украине новый пакет военной помощи на 300 миллионов долларовСотрудники мэрии Бишкека покорили пик Комсомолец

Создатель искусственного интеллекта предупредил о его опасности

 

Фотографии: vb.kg

3 мая 2023, 15:40       Источник vb.kg       Комментарии

Знаменитый ученый-компьютерщик Джеффри Хинтон, которого называют "крестным отцом искусственного интеллекта", заявил, что уходит из технологического гиганта Google и теперь готов открыто говорить об опасностях, связанных с развитием технологий в этой области. При этом Хинтон подчеркнул, что его критика не касается лично Google: подход компании к ИИ он наоборот назвал ответственным, сообщает Би-би-си.
В комментарии Би-би-си Хинтон также предупредил о попадании ИИ-технологий в руки влиятельных злоумышленников - например, как он выразился, российского президента Владимира Путина.
Ученый назвал "довольно страшными" опасности, связанные с развитием ИИ-чатботов.
"Они пока еще не настолько интеллектуально развиты, как мы - по крайней мере, насколько мне известно. Но я думаю, что скоро они могут нас догнать", - сказал Хинтон в интервью Би-би-си.
75-летний Хинтон - британско-канадский ученый в области когнитивной психологии и информатики. Его исследования, которым он посвятил десятилетия своей жизни, проложили дорогу современным ИИ-системам, таким как чат-бот Chat GPT.
Уходя из Google, Хинтон пояснил у себя в твиттере, что своей отставкой он не хочет бросить тень на компанию.
"Я ушел, чтобы иметь возможность говорить об опасностях, не волнуясь о том, как это отразится на Google. Google работает ответственно", - написал он.
Отставка Хинтона добавляет веса голосам специалистов, в последнее время выражающих озабоченность скоростью развития технологий искусственного интеллекта. Недавно открытое письмо об этом подписали предприниматель Илон Маск и сооснователь Apple Стив Возняк.
В письме говорилось о целом ряде рисков: от распространения дезинформации до лишения людей работы и потери контроля над цивилизацией.
"Это сделал бы кто-то другой"
О своей отставке из Google Хинтон изначально сообщил газете New York Times, объяснив, что он отчасти сожалеет о проделанной работе.
"Я утешаю себя обычным оправданием: если бы я этого не сделал, сделал бы кто-то другой", - поделился ученый в интервью газете.
Объясняя свои опасения в комментарии Би-би-си, Хинтон отметил, что людей должна беспокоить скорость, с которой развиваются технологии в области ИИ.
"Уже сейчас мы видим, как такие системы, как GPT-4, затмевают человека по общей эрудиции, причем с большим перевесом. В том, что касается логического осмысления, она еще отстает, но на простые рассуждения она уже способна".
"А учитывая нынешнюю скорость прогресса, мы ожидаем, что усовершенствование произойдет довольно быстро. И нас это должно беспокоить", - добавил ученый.
"Плохие люди, способные на плохие вещи"
Ранее в интервью New York Times Хинтон упоминал опасность того, что ИИ-технологии попадут в руки злоумышленников, которые с их помощью будут делать "плохие вещи".
Когда Би-би-си попросила его поделиться, кого именно он имеет в виду, Хинтон ответил: "Это самый пессимистичный сценарий. Самый кошмарный прогноз".
"Представьте себе, например, что какой-нибудь злоумышленник вроде Путина решит дать роботам возможность создавать свои собственные подзадачи".
Например, в конечном счете, это могут быть такие подзадачи как "Мне нужно усилить свою власть", - пояснил ученый.
Почему ИИ учится так быстро
Как объяснил Хинтон, у компьютерных систем намного больше возможностей учиться, чем у людей, что вызывает тревогу.
"Мы являемся биологическими системами, а здесь речь идет о цифровых. И огромная разница заключается в том, что с цифровыми системами у вас может быть множество копий с одними и теми же исходными составляющими. Все эти копии могут учиться отдельно друг от друга, а потом мгновенно обмениваться новыми знаниями".
"Представьте, если бы каждый из 10 тысяч людей узнавал что-то новое, и тут же все 10 тысяч автоматически получали это знание. Вот почему эти чат-боты могут знать намного больше, чем отдельно взятый человек", - подчеркнул ученый.
Пионер ИИ
Хинтон родился в Британии, где закончил Кембриджский университет. С 1972 года он исследовал нейросети и искусственный интеллект в университетах Британии, США и Канады.
В 2012 году Хинтон с двумя студентами в Торонто создал нейросеть, способную идентифицировать некоторые объекты, проанализировав фотографии и различные цифровые данные. Google купила их стартап за 44 млн долларов.
В 2018 году Хинтон получил приз Тьюринга - компьютерный эквивалент Нобелевской премии.
О своем уходе из Google Хинтон сказал, что сделал это не ради критики компании, а чтобы иметь возможность свободно высказываться без оглядки на корпоративные правила.
"Вообще-то я хочу сказать хорошее о Google. И для них это будет более авторитетным, если я не буду их сотрудником".
В своем заявлении старший научный сотрудник Google Джефф Дин сказал следующее:
"Мы верны своему обязательству ответственно подходить к ИИ. Мы постоянно учимся замечать возникающие риски, в то же время активно занимаясь новаторством".
В интервью Би-би-си Хинтон добавил, что еще одной причиной, побудившей его оставить свой пост в Google, стал его возраст. "Мне 75, пора уже на пенсию", - сказал он.
Сообщи свою новость:

Ссылка на новость:
https://for.kg/news-807151-ru.html

Читайте также

Глава Совбеза: Угрозы безопасности для Кыргызстана исходят также и из Сирии

Животноводов Кыргызстана призывают использовать искусственное осеменение

КР развивает птицеводство для повышения продовольственной безопасности

Школьники США должны знать об опасности коммунизма: в Конгресс внесли проект

В Оше проверяют состояние и безопасность общественного транспорта

 

SAPE:

 

АГРОПОРТАЛ КЫРГЫЗСТАНА, НОВОСТИ СЕЛЬСКОГО ХОЗЯЙСТВА
Обучение ювелирному делу в Бишкеке
МСН Общественно-политическая газета

18+

FOR.kg - Кыргызстан новости, пресса

Поисковый сайт новостей (новостной агрегатор, агрегатор СМИ) FOR.kg

Прежде прочтите Соглашение по использованию поискового сайта FOR.kg

При использовании материалов сайта FOR.kg - ссылка на источник обязательна

По всем вопросам обращайтесь в Службу поддержки

Top.Mail.Ru