Комитет парламента отклонил предложение фракции "Бутун Кыргызстан" об отставке кабминаВ Кыргызстане масштабно отмечают юбилей ВОЗ

"Крестный отец" ИИ Джеффри Хинтон заявил, что некоторые опасности чат-ботов с искусственным интеллектом "довольно страшны"

 

Фотографии: knews.kg

2 мая 2023, 15:26       Источник knews.kg       Комментарии

Человек, которого многие считают крестным отцом искусственного интеллекта (ИИ), уволился с работы, предупредив о растущих опасностях, связанных с разработками в этой области.
Джеффри Хинтон, 75 лет, объявил о своем уходе из Google в заявлении для New York Times, заявив, что теперь он сожалеет о своей работе, пишет Би-би-си.
Он сказал Би-би-си, что некоторые опасности чат-ботов с искусственным интеллектом "довольно страшны".
"Прямо сейчас они не умнее нас, насколько я могу судить. Но я думаю, что скоро они станут такими".
Доктор Хинтон также признал, что его возраст повлиял на его решение покинуть технологический гигант, сказав BBC: "Мне 75, так что пора уходить на пенсию".
Новаторские исследования доктора Хинтона в области глубокого обучения и нейронных сетей проложили путь для современных систем искусственного интеллекта, таких как ChatGPT.
Но британско-канадский когнитивный психолог и компьютерный ученый сказал Би-би-си, что чат-бот может вскоре превзойти уровень информации, который хранится в человеческом мозгу.
"Прямо сейчас мы видим, что GPT-4 затмевает человека по объему общих знаний, которые у него есть, и затмевает их далеко. С точки зрения рассуждений, это не так хорошо, но уже делает. простое рассуждение.
"А учитывая темпы прогресса, мы ожидаем, что ситуация улучшится довольно быстро. Так что нам нужно беспокоиться об этом".
В статье в New York Times доктор Хинтон упомянул "плохих акторов", которые попытаются использовать ИИ для "плохих дел".
На просьбу Би-би-си рассказать об этом подробнее, он ответил: "Это всего лишь своего рода сценарий наихудшего случая, своего рода кошмарный сценарий.
"Вы можете представить, например, что какой-нибудь плохой актор решил дать роботам возможность создавать свои собственные подцели".
Ученый предупредил, что это в конечном итоге может "создать подцели, такие как "Мне нужно получить больше энергии"".
Он добавил: "Я пришел к выводу, что тот тип интеллекта, который мы развиваем, сильно отличается от того интеллекта, который у нас есть.
"Мы биологические системы, а это цифровые системы. И большая разница в том, что с цифровыми системами у вас есть много копий одного и того же набора весов, одной и той же модели мира.
"И все эти копии могут учиться по отдельности, но мгновенно делиться своими знаниями. Это как если бы у вас было 10 000 человек, и всякий раз, когда один человек что-то узнает, все автоматически это узнают. Вот почему эти чат-боты могут знать гораздо больше, чем любой другой человек".
Он подчеркнул, что не хочет критиковать Google и что технический гигант вел себя "очень ответственно".
"На самом деле я хочу сказать несколько хороших слов о Google. И они будут более достоверными, если я не работаю в Google".
В своем заявлении главный научный сотрудник Google Джефф Дин сказал: "Мы по-прежнему привержены ответственному подходу к ИИ. Мы постоянно учимся понимать возникающие риски, а также смело внедряем инновации".

Ссылка на новость:
https://for.kg/news-806978-ru.html

Читайте также

В некоторых районах Бишкека три дня не будет газа

В связи с ремонтом теплосети у некоторых горожан не будет горячей воды (адреса)

Чудаки парковки. В Бишкеке некоторые нарушители ездят по тротуарам

В некоторых районах Бишкека временно не будет газа

Ремонт дорог в Бишкеке: изменены схемы движения некоторых автобусных маршрутов

 

SAPE:

 

АГРОПОРТАЛ КЫРГЫЗСТАНА, НОВОСТИ СЕЛЬСКОГО ХОЗЯЙСТВА
Обучение ювелирному делу в Бишкеке
МСН Общественно-политическая газета

18+

FOR.kg - Кыргызстан новости, пресса

Поисковый сайт новостей (новостной агрегатор, агрегатор СМИ) FOR.kg

Прежде прочтите Соглашение по использованию поискового сайта FOR.kg

При использовании материалов сайта FOR.kg - ссылка на источник обязательна

По всем вопросам обращайтесь в Службу поддержки

Top.Mail.Ru