Шрифт:
Когда ИИ Google проанализировал запрос и предположил, что вам нужно, он сразу обращается к каталогу онлайн-контента: веб-страниц, изображений, видео и документов. Они уже обработаны системой машинного обучения.
Системы учатся сортировать, ранжировать и фильтровать контент каталога. Каждая единица контента оценивается по количеству ссылок на нее, точности содержащейся в ней информации. Также ИИ проверяет, не спам ли это или реклама и не нарушает ли контент закон или авторские права.
Обычный поиск Google – это множество сложных, мгновенно выполняемых вычислений ИИ. Системы, способные ежедневно осуществлять миллиарды вычислений, вознесли Alphabet и Google на вершину и принесли невероятную прибыль.
Google использует ИИ для других целей, например чтобы обеспечить безопасность аккаунтов Gmail и сервиса контекстной рекламы, которую показывают только потенциально заинтересованным пользователям.
Персональный помощник с голосовым управлением на основе ИИ появился несколько лет назад. Сегодня всем известны Google Home, Amazon Alexa и Apple Siri.
Поначалу обработка естественного языка в пользовательских устройствах впечатляла, особенно по сравнению с недавним прошлым, но обнаружились ее ограничения. ИИ хорошо понимает только элементарные и короткие предложения и команды. Попробуйте поговорить с ним, как с обычным человеком, – и он сразу запутается.
По человеческим меркам нынешний ИИ – младенец. А если говорить на языке науки, ему не хватает данных. Но он быстро растет, например благодаря технологии Google Duplex. Она поддержит и довольно неформальную беседу, потому что обучена для конкретных ситуаций, и алгоритмы собирают только касающиеся этих событий данные. Google демонстрирует прогресс Duplex на примере записи в парикмахерскую по телефону [24] . В таких узких и контролируемых случаях технология ведет себя почти по-человечески. Для этого инженеры Google запрограммировали свойственные нашей речи междометия: машина вставляет в разговор «эм-м», «ах» и «угу», когда сочтет это уместным.
24
Google, Google Duplex: An AI System for Accomplishing Real-World Tasks Over the Phone: https://ai.googleblog.com/2018/05/duplex-aisystem-for-natural-conversation.html
Компьютер можно научить говорить на одном языке, а любой другой он освоит сам с помощью машинного обучения. По этому принципу работает переводчик Google, раскладывая язык на основные составляющие. Глубокие нейронные сети Google Translate постоянно оттачивают алгоритмы, изучая новые языки, и так совершенствуются в точности переводов. Google внедрила эту функцию в наушники Pixel Buds на базе Google Assistant, и пользователи могут слушать трансляцию перевода почти в режиме реального времени [25] .
25
The Verge, The Pixel Buds’ translation feature is coming to all headphones With Google Assistant: https://www.theverge.com/circuitbreaker/2018/10/15/17978298/pixel-buds-google-translate-google-assistantheadphones
У Waymo – подразделения Alphabet, которое разрабатывает беспилотные автомобили, – одна из самых развитых платформ в мире. Недавно компания стала первым коммерческим перевозчиком [26] .
Alphabet пошел еще дальше: автомобили полностью автоматизированы, в них даже нет руля и педалей. Они созданы для новой урбанистической эпохи, в которую быть владельцем автомобиля – дорого и неудобно. Сервис Waymo ориентирован на частный извоз: по прогнозам компании, такой формат будет основным в умных городах будущего.
26
Financial Times, Alphabet’s Waymo begins charging passengers for self-driving cars: https://www.ft.com/content/7980e98e-d8b6-11e8-a854-33d6f82e62f8
В машинном обучении Google использует алгоритмы естественного языка, когда автоматически записываются субтитры для слабослышащих (или предпочитающих тишину) людей на сервисе потокового видео YouTube. Как и с речью, для идентификации звуков (аплодисментов, музыки) система использует глубокие нейронные сети и автоматически выводит текст: он сообщает зрителю, что происходит [27] .
27
Google, Adding Sound Effect Information to YouTube Captions: https://ai.googleblog.com/2017/03/adding-sound-effect-information-to.html
Технология ИИ Alphabet (в частности на базе глубокого обучения) широко применяется в медицине. Из недавних новшеств стоит упомянуть офтальмологическую диагностику. Для обучения алгоритмов используются снимки оптической когерентной томографии – инфракрасные 3D-изображения глазного яблока [28] . Система основана на двух алгоритмах глубокого обучения. Один строит подробную схему устройства глаза и определяет, что нормально, а что может быть симптомом болезни, например возрастной макулодистрофии (истончение сетчатки глаза). Второй алгоритм анализирует медицинские показатели и выдает специалистам диагноз и схему лечения.
28
Nature, Clinically applicable deep learning for diagnosis and referral in retinal disease: https://www.nature.com/articles/s41591-018-0107-6
Исследовательское подразделение искусственного интеллекта Google называется Google Brain. Его основали в 2011 году Джефф Дин, Грег Коррадо и Эндрю Ын из Стэнфордского университета. Они стали пионерами практических технологий ИИ.
В Google Brain предположили, что обширные сверхбыстрые сети хранилища и огромный объем данных интернета, который проходит по их серверам, пригодятся для машинного и глубокого обучения. С тех пор команда разработала ключевые технологии, такие как компьютерное зрение и обработка естественного языка, и сделала ИИ востребованным в бизнесе [29] .
29
Google, Using large-scale brain simulations for machine learning and A.I.: https://googleblog.blogspot.com/2012/06/using-large-scale-brainsimulations-for.html