Но в новом интервью после окончательного ухода с работы Хинтон признался, что сожалеет о проделанной работе и беспокоится о том, что ИИ может быть гораздо опаснее, чем мы думаем.
В начале 2023 года 1000 ведущих экспертов и исследователей в области технологий подписали открытое письмо, призывающее приостановить все разработки ИИ как минимум на шесть месяцев, чтобы предотвратить «глубокие риски для общества и человечества».
Хотя доктор Хинтон не подписал это письмо, сейчас он разорвал связи с технологическими гигантами и готов открыто говорить о потенциальных опасностях технологий.
«Я не думаю, что им следует расширять масштабы этой деятельности, пока они не поймут, смогут ли они ее контролировать».
Джеффри Хинтон
Говоря о своем собственном вкладе в создание опасности, он признался: «Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой».
Джеффри Хинтон заявил, что не имеет претензии к корпорации Google, а к ИИ в целом.
Главный научный сотрудник Google Джефф Дин после отставки доктора Хинтона заявил, что компания по-прежнему привержена ответственному подходу к ИИ.
Доктор Хинтон отметил, что на заре развития ИИ было всего «несколько человек», которые верили, что «эта штука действительно может стать умнее людей» через несколько десятилетий. Но события развивались гораздо быстрее, чем кто-либо ожидал.