Премию Тьюринга получили трое пионеров в области искусственного интеллекта
Премия Тьюринга считается своего рода эквивалентом Нобелевской премии в области вычислительной техники.
В 2004 году Джеффри Хинтон (Geoffrey Hinton) сделал ставку на технологическую идею, получившую впоследствии название «нейронная сеть».
Это метод, с помощью которого машины смогли видеть окружающий мир, распознавать звуки и даже понимать естественный язык.
При поддержке канадского правительства, Джеффри Хинтон, профессор Торонтского университета (University of Toronto), организовал новое исследовательское сообщество вместе с несколькими учёными, тоже разрабатывавшими эту концепцию.
Среди них были Ян Лекун (англ. Yann LeCun, фр. Yann Le Cun), профессор Нью-Йоркского университета (New York University), и Йошуа Бенжио (фр. Yoshua Bengio) из Монреальского университета (фр. Université de Montréal).
В среду Ассоциация вычислительной техники (Association for Computing Machinery), крупнейшее в мире общество профессионалов в области вычислительной техники, объявила, что Хинтон, Лекун и Бенжио получили в этом году премию Тьюринга за работу в области разработки нейронных сетей.
Премия была учреждена в 1966 году и часто называется Нобелевской премией в области вычислительной техники, она включает денежную премию в размере 1 млн долларов, которую разделят в этом году трое учёных.
За последнее десятилетие идея, выдвинутая этими исследователями, изменила способ развития технологии, ускорила развитие распознавания лиц, услуг цифровых ассистентов, складских роботов и беспилотных автомобилей.
Хинтон работает сейчас в Google, Лекун в Facebook, Бенжио подписал контракты с IBMи Microsoft.
«Мы видим не что иное, как смену парадигмы в науке, — сказал Орен Этциони (Oren Etzioni), директор Института искусственного интеллекта Аллена в Сиэтле (Allen Institute for Artificial Intelligence in Seattle). — На наших глазах меняется история, и я в восхищении».
Нейронная сеть, смоделированная на основе сети нервных клеток живого организма, представляет сложную математическую систему, способную решать дискретные задачи, анализируя огромное количество данных.
Например, обработав тысячи телефонных звонков, она может научиться распознавать произнесённые слова.
Это позволяет многим технологиям искусственного интеллекта развиваться такими темпами, которые раньше были невозможны.
Вместо того чтобы программировать поведение систем вручную, пошагово задавая отдельные логические правила, учёные и программисты теперь владеют технологией, которая способна обучаться определённому поведению практически самостоятельно.
Доктору Хинтону впервые пришла в голову идея применить метод обратного распространения ошибки для обучения многослойных нейронных сетей в начале 1970-х, когда большинство исследователей ИИ были против.
Его собственный научный руководитель сомневался в правильности такого подхода.
Тема нейронных сетей быстро набрала популярность в конце 1980-х и в начале 1990-х.
После года исследований совместно с доктором Хинтоном, Лекун переехал работать в Лаборатории Белла (AT&T’s Bell Labs) в Нью-Джерси, где разработал нейронную сеть, позволяющую читать рукописные буквы и цифры.
Дочерняя компания лаборатории продала технологию банкам, и в какой-то момент эта система смогла прочесть около 10 % всех чеков, выписанных в США.
Хотя нейронная сеть читала почерк и помогала в решении некоторых других задач, она долго не могла добиться заметных успехов в распознавании лиц и объектов, различении произнесённых в потоке речи слов и понимании естественного человеческого языка.
«Сети работали хорошо только тогда, когда было много данных для обучения, но лишь в немногих областях их было достаточно», — говорит Лекун.
В 2004 году, получив менее 400 000 долларов от Канадского института перспективных исследований (Canadian Institute for Advanced Research), доктор Хинтон создал исследовательскую программу, посвящённую тому, что он называл «нейронными вычислениями и адаптивным восприятием», и пригласил Бенжио и Лекуна.
К концу десятилетия эта идея полностью раскрыла свой потенциал.
В 2010 году Хинтон и его студенты помогли Microsoft, IBM и Google раздвинуть границы распознавания речи.
Впоследствии они сделали то же с распознаванием образов.
Прорыв в распознавании образов был основан на алгоритме, разработанном Лекуном.
В конце 2013 года он нанял профессора из Нью-Йоркского университета, чтобы создать исследовательскую лабораторию, сосредоточенную на этой проблеме.
Бенжио сопротивлялся предложениям присоединиться к одному из крупнейших технологических гигантов.
Но исследования, проведённые под его руководством в Монреале, способствовали прогрессу систем, направленных на понимание естественного языка и технологий, способных генерировать фальшивые фотографии, неотличимые от настоящих.
Хотя эти системы, несомненно, ускорили развитие ИИ, они всё ещё очень далеки от настоящего интеллекта.
Но Хинтон, Лекун и Бенжио верят, что появятся новые идеи.
«Нам нужны фундаментальные дополнения к набору инструментов, который мы создали, чтобы достичь работы машин на уровне человеческого понимания», — говорит Бенжио.
https://22century.ru/computer-it/76007?utm_source=sendpulse&utm_medium=push&utm_campaign=2995128https://www.nytimes.com/2019/03/27/technology/turing-award-ai.html