Разное

Искусственный интеллект гугл: 10 инструментов искусственного интеллекта Google, доступных каждому

Содержание

10 инструментов искусственного интеллекта Google, доступных каждому

Называть Google только поисковым гигантом было бы несправедливо – из системы нахождения релевантных сайтов он быстро превратился в движущую силу инноваций в ключевых IT-секторах. За последние годы Google пугающе укоренился почти во всём цифровом, будь то электроника (смартфоны, планшеты, ноутбуки), базовое программное обеспечение (Android, Chrome OS) или интеллектуальное ПО, поддерживаемое Google AI. В этой статье мы обсудим, какие инструменты предоставляются Google AI для разработчиков, исследователей и организаций.

1. TensorFlow

TensorFlow – набор программных библиотек глубокого обучения с открытым исходным кодом. Используя инструменты TensorFlow, аналитики данных могут создавать высокоточные и четко определенные модели машинного обучения. В прошлом году мы писали о версии TensorFlow 2.0, а ещё раньше – о том, как был создан интерфейс для JavaScript. В общем, фреймворк не стоит на месте!

2. ML Kit

ML Kit – это SDK для мобильных устройств, который в настоящее время доступен на Android и iOS. Он использует возможности машинного обучения Google в мобильных приложениях для решения проблем из реальной жизни. ML Kit поможет добиться успеха во многих задачах.

Идентификация языка. Передаем текст в ML Kit – получаем распознанный. Поддерживаются более сотни языков, включая хинди, арабский, китайский, не говоря уже о европейских. Полный список здесь.

Человеческие лица могут быть распознаны ML KIT. Больше примеров здесь.

Распознавание объектов. Но не только язык. ML Kit хорош в распознавании текста, лиц, QR-кодов и других объектов на изображениях. Кроме того, есть API, чтобы добавлять ваши собственные модели машинного обучения в TensorFlow Lite и интегрировать их в приложения.

3. Google Open Source

Google продолжает открывать свой исходный код. И за счёт активного участия подключающегося сообщества наработки Google становятся ещё лучше. Вот пара недавних примеров больших проектов.

ClusterFuzz. В феврале 2019 г. компания открыла исходные тексты платформы ClusterFuzz, предназначенной для проведения тестирования кода с использованием кластера серверов. ClusterFuzz автоматизирует выполнение таких задач, как отправка уведомления разработчикам, создание issue, отслеживание ошибки и закрытие отчётов после исправления.

AutoFlip. В феврале этого года Google представила AutoFlip – систему интеллектуальной перестройки видео, определяющей наиболее важные объекты в кадре и соответствующим образом обрезающей ролик. За счёт этого из альбомно ориентированных видео можно получать вертикальные, портретные, которые удобно смотреть на мобильных телефонах без поворота экрана.

4. Colab

Если коротко, то Colab Laboratory или Colab – это онлайн-редактор и компилятор кода Python. Если вы знакомы с Jupyter Notebook, то это тот же инструмент, но которым можно пользоваться совместно онлайн. Идея работы в Colab кратко показана в следующем видео. При этом в течение 12 часов разрешено бесплатно пользоваться одним GPU NVidia Tesla K80 (после 12 часов расчет скидывается, но можно успеть посчитать небольшую модель).

При погружении в новую область особенно необходимы исследования по изучаемой теме. Google упростила процесс поиска набора данных, предложив следующие инструменты.

5. Модерируемые датасеты Google Cloud

Фундаментальная проблема всякой модели ML состоит в том, чтобы обучить ее на «правильных» данных. Google Cloud Public Datasets – это наборы данных, курируемые специалистами Google, которые периодически обновляются при помощи анализа множества исследований. Форматы самые разные: изображения, транскрибированные аудио, видео и текст. Данные предназначены для широкого круга исследователей с различными сценариями использования. Поиск прочих датасетов можно выполнить с помощью следующего инструмента.

6. Поиск Google по наборам данных

В сентябре 2018 г. Google запустил поиск по наборам данных (Dataset Search). В выдаче указывается информация о ресурсе, где опубликован набор, лицензия, дата обновления, описание и доступные для скачивания форматы. Ниже на скриншоте представлен пример поиска результатов по запросу «погода в Cанкт-Петербурге». Несмотря на то что в названии датасета отсутствует имя города, набор данных соответствует запросу и содержит сведения по изменению погоды в Санкт-Петербурге и Ленинградской области. Но заметим, что обновлялся он довольно давно.

7. Crowdsource

Еще одна цель Google – повысить точность наборов данных, предлагая пользователям интересные задачи, например, распознавать различные категории изображений, такие как рисунки, письма, газеты, иллюстрации и многое другое. В этом случае Google эксплуатирует пользователей, предлагая игровую форму там, где Яндекс даёт – пусть и небольшие – но деньги.

Улучшить свои продукты с помощью Google Crowdsource.

С другой стороны, можно поучиться тому, как Google Crowdsource работает с изображениями, распознаванием почерка, выражений лиц, проверкой переводов и меток изображений. Результаты анализа Crowdsource можно перенести на собственные идеи по разметке данных в рамках игрового подхода.

Внимательно следя за рынком, Google определяет, как его сервисы могут превратить потенциально успешную идею в достигнутую цель и создаёт специальные инструменты для организаций.

8. Cloud TPU

TPU V2

Машинное обучение, несмотря на все достижения, требует высокопроизводительного железа. Для этого компания создала тензорный процессор (Tensor Processing Unit). Cloud TPU позволяет предприятиям за счет снижения затрат на оборудование предлагать клиентам свои лучшие услуги. Тензорный процессор относится к классу нейронных процессоров со специализированной интегральной схемой. Архитектура заточена под задачи линейной алгебры, и, например, позволяет обрабатывать в Google Фото одним процессором до 100 млн фотографий в день.

9. Cloud AI

Cloud AI позволяет внедрять возможности машинного обучения в свой бизнес. Используя Cloud AI, компании могут использовать уже имеющиеся модели, предоставляемые Google, или настроить их по своему вкусу.

Cloud AI состоит из трех компонентов: Hub, Building Blocks и Platform.

AI Hub предоставляет коллекцию готовых к использованию компонентов искусственного интеллекта с опциями для обмена и экспериментов на моделях.

AI Building Blocks позволяет разработчикам добавлять в свои приложения обработку речи, компьютерное зрение, работу с языком и структурированными данными.

AI Platform позволяет ученым, инженерам и разработчикам данных быстро развертывать свои идеи с помощью нескольких сервисов, таких как блокноты AI Platform, контейнеры глубокого обучения, сервисы создания меток и другие.

10. Cloud AutoML

Cloud AutoML используется такими популярными брендами, как Disney, Imagia и Meredith. Ниша инструмента – доступное машинное обучение для бизнеса с небольшим опытом в этой области, но исходно хорошо размеченными данными.

Начните использовать AutoML

Заключение

Достижения в области искусственного интеллекта ошеломляют. Google последовательно внедряет инновации в этой сфере, предлагая несколько инструментов, таких как ML Kit, TensorFlow, Fire Indicators и многие другие. А искать датасеты можно не только на Kaggle, но и через специализированный поиск. Пользуетесь ли вы какими-то из перечисленных инструментов? Расскажите в комментариях.

***

Актуальные публикации Библиотеки программиста по теме ИИ:

Google представила инструмент для создания ИИ. Он доступен даже школьникам / Хабр

Google упростила машинное обучения для тех, кто не имел дела с разработкой. На смену Teachable Machine — сайту, который знакомил пользователей с основами создания ИИ, пришел Teachable Machine 2.0, где нейронные сети можно обучить одним нажатием кнопки.

Первая версия позволяла с использованием веб-камеры наблюдать, как компьютер учится распознавать шаблоны и закономерности в изображениях.

См. также: «Квантовая ставка Google на ИИ – и что она означает для всего человечества»

Теперь же пользователь может с помощью веб-камеры и микрофона на своем ПК без написания кода обучать нейронные сети и экспортировать их в сторонние приложения, носители или на веб-сайты. Вторая версия может распознавать звуки и позы.

Для тех, кто решил попробовать себя в обучении ИИ, представлена инструкция:

В компании отметили, что первая версия Teachable Machine стал популярным инструментом. Ее задействовали в сфере образования, чтобы научить школьников основам обучения ИИ. А эксперт по доступным технологиям Стив Солинг применил инструмент, чтобы облегчить общение для людей с нарушениями речи.

См. также: «10 самых важных вех в развитии ИИ на сегодняшний день»

Google предложила пользователям загрузить свои файлы или создать их при помощи микрофона или веб-камеры. Teachable Machine 2.0 по нажатию кнопки начнет обучать модель на основании предоставленных ей примеров. Вся информация сохранится исключительно на ПК, если проект не загружать на Google Диск.

См. также: «Способности есть, а разума нет: задачи, с которыми ИИ не справляется»

В компании подчеркнули, что обновленный инструмент позволит использовать ИИ более широко.

Ранее Fujitsu представила технологию распознавания выражения лица на основе ИИ. Компания утверждает, что технология помогает выявить даже едва уловимые эмоциональные изменения, в том числе нервную улыбку или замешательство.

Нейросети внедряют и в сфере игр. Так, платформа для соревнований FACEIT сообщила, что «ИИ-админа» Minerva, который отслеживает токсичных игроков, а также вычисляет оскорбления, с августа проанализировал свыше 200 млн сообщений в чате и признал токсичными 7 млн; выписал 90 000 предупреждений и 20 000 банов за оскорбления и спам.

Применяют ИИ и для развлечений. Например, нейросеть Nvidia обучили заменять домашнее животное на любое другое. Инструмент GanAnimals позволяет увидеть выражение морды и позу своего любимца на другом животном благодаря технологии генеративно-состязательной сети, новой технике искусственного интеллекта, которая противопоставляет одну нейронную сеть другой.

Google представила «объяснимый» ИИ (Explainable AI) / Хабр

При использовании систем с искусственным интеллектом у конечных заказчиков часто возникает практически фундаментальная проблема — им сложно понять, как именно искусственный интеллект (ИИ) принимает свои решения. Так как специалистам компаний, которые купили эту «черную» коробочку и загрузили в нее большой объем данных, зачастую очень трудно, если не невозможно, разобраться в тонкостях работы ИИ. Тем более, что алгоритмы для этого программного продукта писали сторонние разработчики, которые не заложили в его функционал более тонкие настройки и триггеры, которые бы при нештатной работе ИИ позволяли бы быстро откорректировать параметры и исправить ситуацию без остановки работы системы и обращения в техническую поддержку.

В конце этой недели на специально посвященном разработке ИИ мероприятии в Лондоне подразделение облачных вычислений Google представило новый облачный продукт, который должен предоставить компании преимущество над разработками своих конкурентов — Microsoft и Amazon, которые доминируют в сфере облачных применений ИИ. Этот новый продукт в Google Cloud назвали «объяснимый» ИИ (Explainable AI).


Десятки тысяч компаний по всему миру ежедневно используют облачные продукты и решения Google Cloud AI, которые предоставляют их пользователям новые возможности и помогают оперативно решать их текущие задачи. В Google стремятся внедрять новые разработки в ИИ и модернизировать его архитектуру в соответствии с принципами ИИ от Google. И вот теперь компания представила «объяснимый» ИИ, который помогает пользователям понять, как именно модель машинного обучения пришла к тем или иным своим выводам в ходе обработки данных.

Алгоритм «объяснимого» ИИ Google расширен для улучшения его интерпретируемости пользователями с помощью специальных модулей-пояснений. Пояснения количественно определяют вклад каждого элемента данных в выходные данные модели машинного обучения. Используя эти модули можно понять, почему модель приняла определенные решения, также эту информацию можно использовать для дальнейшей адаптации моделей машинного обучения.

Новый метод, используемый в алгоритме «объяснимого» ИИ Google имеет свои ограничения. Так, модули-пояснения раскрывают принцип работы моделей машинного обучения, полученных на основе исходных данных, но с их помощью нельзя понять о существовании каких-либо фундаментальных связей в конечной выборке данных. В Google стремятся сделать наиболее понятные и полезные методы для объяснения работы их ИИ доступными для клиентов, но в то же время не пытаются скрывать их ограничений.

Google на стадии предварительного тестирования предоставила алгоритм «объяснимого» ИИ некоторым компаниям, которые использовали его для систем обнаружения лиц и объектов. По факту тестирования этого продукта специалисты компаний смогли добиться прироста производительности существующих систем и найти некоторые потенциальные недостатки в ранее используемых ими моделях машинного обучения. Теперь само «мышление» алгоритмов ИИ стало для пользователей менее загадочным и, следовательно, более простым для понимания и внесения нужных изменений.

По словам профессора Эндрю Мура, главы подразделения Google Cloud AI, в компании планируют в ближайшее время расширить функционал алгоритма «объяснимого» ИИ, так как многие клиенты заинтересовались этим продуктом и хотят его использовать в своей инфраструктуре. Также подразделение Google Cloud AI будет и далее раскрывать детали многих своих других инструментов для конечных заказчиков, что поможет лучше объяснить их специалистам принципы работы этих продуктов и позволит донести концепции понимания результатов машинного обучения в более понятной форме. Тем самым в Google фактически хотят оставить позади эру машинного обучения систем клиентов с помощью ИИ из «черного ящика».

Документацию по «объяснимому» ИИ (Explainable AI) от Google можно почитать тут.

На данный момент сервис Explainable AI находится в стадии бета-тестирования (Explainable AI Beta) и доступен для ограниченного бесплатного использования.

В начале ноября 2019 года сообщалось, что Google обновила свой инструмент Teachable Machine до второй версии, который могут использовать даже школьники для изучения основ и понимания работы ИИ.

В январе 2019 года о новым подходе в компании Google к пониманию мышления машин рассказывала Бин Ким, исследователь из подразделения Google Brain. И вот сейчас в Google смогли создать инструментарий, позволяющий анализировать и исследовать параметры и факторы, на которые ИИ обращает внимание при решении задачи, а на какие нет, а также насколько высокие веса при решении задачи ИИ присваивает тем или иным факторам и как можно их изменить.

Интернет: Интернет и СМИ: Lenta.ru

В 2020 году многим стало очевидно, что грань между реальностью и виртуальностью практически перестала существовать: это показал карантин, во время которого миллионы людей жили полноценной жизнью, практически не выходя из дома. Однако исследователи уже убедились, что технологии несут не только благо. Оказавшись в неправильных руках, они могут превратиться в полную противоположность того, для чего они были задуманы. Как избежать угроз, которые несет развитие технологий, — в материале «Ленты.ру».

«Рассуждая об искусственном интеллекте и искусственном сознании, многие полагают, что существует всего два класса систем обработки информации: искусственные и естественные. Это не так», — писал немецкий философ Томас Метцингер. В пример систем, которые не принадлежат ни к одной из этих категорий, он приводил гибридных биороботов или разработку британских ученых из Редингского университета: они научились управлять роботом, используя сеть из трехсот тысяч крысиных нервных клеток. Такие системы Метцингер предлагает называть постбиотической жизнью.

Пока мы не стали существенно счастливее, чем были наши предки, лучше не пытаться перенести нашу психическую структуру на искусственные носители

Томас Метцингер

Философ, однако, сомневается в том, что человеку удастся «пересоздать» себя на небиологическом носителе. Искусственное сознание — это в первую очередь техническая проблема, и никто не может гарантировать, что ее удастся решить. С другой стороны, это проблема этическая. «Пока мы не стали существенно счастливее, чем были наши предки, лучше не пытаться перенести нашу психическую структуру на искусственные носители», — предостерегал Метцингер.

Услышав словосочетание «искусственный интеллект», многие представляют разумных человекоподобных роботов и прочую постбиотическую жизнь, способную осознавать себя. На самом же деле искусственный интеллект — это система, которая способна анализировать данные и обучаться на их основе.

Искусственный интеллект действительно способен выполнять те задачи, которые раньше были доступны только людям, — например, давать рекомендации, какой сериал посмотреть, переводить тексты или играть в шахматы.

Фото: Mohamed Abd El Ghany / Reuters

Технология — это не замена человека, а его помощник, призванный делать жизнь лучше. Например, искусственный интеллект активно используют в медицине: исследователи создают нейросети, способные предсказывать серьезные заболевания, прогнозировать риски и искать новые лекарства. ИИ также применяют при диагностике, однако опасаться, что машина будет неправильно лечить человека, не стоит: решения принимает врач, а не компьютер. При создании таких технологий много внимания уделяется этическому аспекту. При проектировании ученые всегда ориентируются на то, что технологии существуют для людей, а не наоборот.

Не менее важным для будущего искусственного интеллекта является правовой аспект. Принципы, которым должны следовать ученые при развитии этой технологии, были сформулированы в 2017 году на конференции в американском городе Азиломар. Под ними подписались более 3,5 тысячи ученых, в том числе Стивен Хокинг. Свои подписи поставили и представители Google, Apple, Facebook, IBM, Microsoft и Илон Маск. Первым азиломарским принципом стало то, что цель исследований в области интеллектуальных систем должна заключаться в создании не «бесцельного разума», а систем, способных принести человеку пользу.

Материалы по теме

00:04 — 11 июля

00:03 — 29 июля

Исследователи также согласились с тем, что между разработчиками искусственного интеллекта и правительством необходим диалог. Как модифицировать правовую систему, чтобы учесть все правовые риски, связанные с использованием интеллектуальных систем — этот вопрос пока остался открытым. Однако то, что он поднимался, говорит о назревшей необходимости менять законодательства разных стран с учетом того, как технологии изменили и продолжают менять мир.

Особенно очевидно это стало во время пандемии коронавируса, когда многие страны ввели строгие карантинные меры. Огромное количество людей стало работать и учиться прямо из дома — можно сказать, что грань между реальностью и виртуальностью стерлась окончательно. Тогда же стало ясно, что нормы закона и этики не могут быть разными для онлайна и офлайна — разделить эти две части жизни сегодня невозможно.

О технологии искусственного интеллекта знают около 75 процентов россиян, однако лишь 29 процентов из них понимают ее суть — об этом свидетельствуют данные опроса ВЦИОМ, проведенного в конце 2019 года.

Большинство респондентов отметили, что относятся к внедрению этой технологии положительно или нейтрально. Более половины участников исследований согласились использовать ИИ для получения госуслуг, для решения различных бытовых задач, а также в медицине, образовании и сфере досуга.

12

процентов россиян

негативно относятся к внедрению технологий искусственного интеллекта

Негативно к распространению искусственного интеллекта относится 12 процентов опрошенных. Директор по работе с органами государственной власти ВЦИОМ Кирилл Родин подчеркнул, что с каждым годом их число снижается.

Страх перед ИИ обусловлен опасениями, связанными с утечкой персональных данных, нарушением личного пространства и техническими сбоями. Кроме того, участников опроса заботило то, что предсказать последствия развития технологий пока невозможно.

«С одной стороны — признают неизбежность и необходимость развития искусственного интеллекта как обеспечивающего стратегическое преимущество в технологической революции. С другой — читается настороженность, во многом продиктованная непониманием, как конкретно внедрение технологии повлияет на повседневную жизнь», — прокомментировал результаты опроса Родин.

Об этих же опасностях говорил президент России Владимир Путин, выступая на пленарном заседании 75-й сессии Генеральной ассамблеи ООН. Путин отметил, что пандемия коронавируса стала принципиально новым вызовом, и экспертам еще предстоит оценить масштабы ее последствий. В то же время пандемия «заострила и целый ряд этических, технологических, гуманитарных тем».

Мы должны учиться использовать новые технологии во благо человечеству, найти правильный баланс между стимулами к развитию искусственного интеллекта и оправданными ограничительными мерами, совместными усилиями прийти к согласию в сфере регулирования, которое исключило бы потенциальные угрозы, причем с точки зрения не только военной, технологической безопасности, но и традиций, права, морали человеческого общения

Владимир Путин

В частности, президент подчеркнул, что технологии помогли перестроить систему образования и другие сферы, а также перевести уроки в онлайн. Кроме того, искусственный интеллект часто помогал врачам ставить диагноз и подбирать схему лечения. «Но, как и любые другие инновации, цифровые технологии имеют тенденцию к неуправляемому распространению и так же, как и обычное оружие, могут попасть в руки разного рода радикалов и экстремистов не только в зонах региональных конфликтов, но и во вполне благополучных странах, порождая огромные риски», — отметил Путин.

По его мнению, многие люди опасаются, что технологии поставят под угрозу базовые человеческие права: право на частную жизнь, собственность и безопасность. «Мы должны учиться использовать новые технологии во благо человечеству, найти правильный баланс между стимулами к развитию искусственного интеллекта и оправданными ограничительными мерами, совместными усилиями прийти к согласию в сфере регулирования, которое исключило бы потенциальные угрозы, причем с точки зрения не только военной, технологической безопасности, но и традиций, права, морали человеческого общения», — констатировал президент России.

Ирина Рукавишникова

Первый заместитель председателя комитета Совета Федерации по конституционному законодательству и государственному строительству, член Совета по развитию цифровой экономики при Совете Федерации Ирина Рукавишникова отметила, что угрозы, исходящие от цифрового мира, разнообразны по формам, адресатам и степени опасности. «Одни злоумышленники с помощью вирусов, фальшивых подписных страниц или сайтов и многих других методов стремятся завладеть персональными данными граждан для хищения их денежных средств. Другие — более изощренные — стремятся дестабилизировать работу предприятий и организаций, отраслей и систем жизнеобеспечения, массово ввести население в заблуждение и посеять панику с помощью фейковых новостей», — уточнила Рукавишникова в разговоре с «Лентой.ру».

По ее мнению, противостоять этому можно как минимум на четырех уровнях. «Первый — законодательство. Оно должно оперативно реагировать на все новые возможности и риски, которые несет с собою цифровое пространство. Второй — поддержка и совершенствование отечественных конкурентоспособных продуктов в сферах программного обеспечения, систем сбора, обработки, передачи и хранения данных», — объяснила член Совфеда.

Рукавишникова подчеркнула важность подготовки достаточного количества специалистов по вопросам кибербезопасности, включая узкоотраслевых профессионалов, специализирующихся, к примеру, на медицине или строительстве. Уже сегодня их недостаточно, а в будущем потребность будет только расти. Кроме того, она обратила внимание на повышение уровня цифровой грамотности граждан: «Ведь любое, даже самое совершенное законодательство будет бессильно перед киберугрозами, если пользователи сети будут пренебрегать элементарными требованиями безопасности».

Фото: Paul Hanna / Reuters

«Далеко не все наши соотечественники внимательно следят за тем, что именно, какие сведения и куда они передают, какие согласия подписывают на автомате, к чему это может привести. Любое право, включая возможность бесплатного пользования социальными сетями, видеохостингами, поисковыми системами и так далее, налагает на гражданина и определенные обязанности, в том числе по обеспечению безопасности информации, которую человек сознательно размещает, например, в социальных сетях. Об этом россияне, к сожалению, часто забывают», — констатировала Рукавишникова.

О важности учитывать этические вопросы при создании искусственного интеллекта говорят и эксперты индустрии. По словам советника по стратегии и развитию в Common Fund for Commodities Андрея Кулешова, технология, не соответствующая этическим критериям, принятым в обществе, вероятно, столкнется с долгим и проблемным процессом внедрения, невзирая на любой позитивный потенциал. С этой точки зрения открытое и прозрачное соблюдение этических принципов всеми участниками производства и внедрения систем ИИ может здорово упростить процесс принятия технологий обществом.

Андрей Кулешов

«С другой стороны, инновационные технологии, такие как ИИ, часто вынуждены работать в «серой» зоне неясной ответственности за непредвиденные негативные последствия. ИИ как масштабируемая технология может столкнуться не только с неопределенной ответственностью, но и с неопределенным ее масштабом, что, конечно, не способствует уверенности при внедрении инноваций», — подчеркнул Кулешов и добавил, что соблюдение вопросов этики, по сути, необходимо как условие рационального, взаимоприемлемого баланса между интересами корпораций, ученых, разработчиков, общества, человека, государства.

Изучением того, как можно снизить существующие риски, сегодня занимаются и в Международной организации по стандартизации, в ЮНЕСКО, Совете Европы и ОБСЕ.

Общими подходами для разработчиков Кулешов назвал принципы предосторожности, информированного согласия и ненаделения искусственного интеллекта собственной субъектностью. «Этику должна соблюдать не система (железка не имеет своей этики), а люди, которые за ней стоят», — уточнил специалист. По его словам, кодифицировать общие принципы помогает опыт других профессий с этической нагрузкой — например, медицины и финансов. Он подсказывает, что ИИ должен действовать в интересах развития общества, соблюдать закон, интересы общества и граждан, действовать ответственно и добросовестно, проявлять профессионализм и компетентность, а также укреплять доверие к технологиям и рынкам.

как Google искусственный интеллект внедрял

Фото Getty Images

Крупнейший сбой в Google Play возник на фоне внедрения искусственного интеллекта в сервисе Google Play. Как он скажется на работе систем в будущем?

Google уже несколько лет последовательно внедряет технологии машинного обучения в свои сервисы. Настала очередь магазина приложений Google Play, где американская интернет-компания планирует продвигать более качественные игры и приложения, опираясь на внутренние метрики, такие как возврат пользователей, внутренние покупки, удаления приложений и так далее. Эту тенденцию пользователи ждут давно, но массовые сбои показывают, что разработчикам надо быть готовыми к непрогнозируемому поведению искусственного интеллекта (ИИ).

Что-то пошло не так

Начиная с 19 июня в магазине приложений Google Play по всему миру стали наблюдаться серьезные сбои в работе сервисов, таких как поиск приложений, нативные A/B-тесты, отображение статистики по загрузкам, а также рекомендательный блок Similar apps.

Последствием сбоев стали массовые жалобы разработчиков на большие потери в установка приложения новыми пользователями из магазина приложений — снизился так называемый органический трафик. У некоторых это цифра достигала 90% от дневного объема новых пользователей. Проблема коснулась не только российских компаний, но и зарубежных. Проблему обсуждают на многих форумах, например Reddit.

Например, сбой произошел в сервисе встроенного поиска приложений, наиболее значимого источника новых органических пользователей в магазине приложений, на который приходится более 50% всех установок приложений. Сервис перестал выдавать правильную поисковую выдачу, произошло зацикливание на первых 16-20 приложений, остальные 230+ приложений в каждом поисковом запросе исчезли из поиска и перестали получать пользователей.

Пример уменьшения показов у приложения Get over it PvP: Hammer hit:

При этом упала и конверсия (количество установок, деленное на количество показов приложения) в установку с 15,5% до 11,8% (очевидно, пошла нецелевая аудитория, а это показывает на сбой поиска и Similar apps).

Пример падения установок у приложения Hyperloop:

«Примерно 20 июня начался спад в установках, а 22-го они резко обвалились. Не отображаются данные по источникам трафика, по оценкам (последние за 1 июня)», — описал хронологию сбоя индивидуальный разработчик приложения Hyperloop Антон Слюсарь. Он также добавил, что лишился возможности проводить A/B тесты, предположив, что это произошло из-за  отсутствия данных по трафику. При этом конверсия проектов упала в 3 раза (либо статистика выдавала неверные данные). Со стороны разработчика никаких значительных изменений для таких событий не вносилось.

На данный момент серьезные сбои в работе Google Play устранены, по крайней мере поиск работает, как это было раньше. Тем, у кого продолжаются падения установок, стоит еще подождать, когда устаканятся все сервисы, особенно Similar apps, от которого зависит качество приходящего органического трафика, и начнет снова отображаться статистика.

К сожалению, представители Google на момент подготовки материала не предоставили информации о сбоях внутри Google Play, но при этом поделились результатами внедрения новых рекомендательных алгоритмов приложений, основанных на машинном обучении.

Светлые надежды

«Google внедряет технологии машинного обучения в Google Play для формирования наиболее точных персонализированных рекомендаций мобильных приложений, что уже привело к росту конверсии в установку мобильных приложений на 3,3%», — сообщил 6 июля руководитель исследовательского подразделения ИИ Google Чи Хуаи-хсин.

Основания на такой позитивный исход у качественных приложений есть. Как рассказал гендиректор и основатель KB Production (приложения «Фиксики» и «Маша и Медведь») Виталий Козлов, с 19 июня некоторые проекты его компании «буквально провалились по установкам, а некоторые, наоборот, выросли в несколько раз и продолжают расти».

В результате анализ основных показателей различных игр не выявил конкретных факторов, которые оказывают влияние на установки приложений в Google Play. Козлов предположил, что ИИ учитывает несколько факторов: «Вероятно, речь идет о сочетании некоего количества внутренних метрик проекта, которые «Гугл» видит через свои системы. Предположительно, рост наблюдается в более качественных приложениях, в которых есть ценность и глубина для пользователя, возможно, имеет вес монетизация через внутриигровые покупки».

Из этого он сделал вывод, что Google в новом алгоритме рекомендаций пытается решить проблему продвижения более качественных игр и приложений. Козлов считает, что в перспективе это хороший тренд для потребителя, который будет получать рекомендации более качественных игр и приложений. Из замечаний он отметил, что в детских приложениях основные показатели отличаются в худшую сторону по сравнению со взрослыми проектами из-за особенностей поведения детской аудитории. «Не совсем ясно, учитывается ли этот момент в новом алгоритме или нет», — высказал озабоченность нововведениями Козлов.

Итоги для разработчиков и пользователей

Новые, более сильные алгоритмы рекомендаций смогут решить три текущиех проблемы:

1. Более качественные приложения будут получать больше пользователей, что стимулирует их дальнейший рост и рост всей экосистемы мобильных приложений в целом.

2. Произойдет размытие уровня доходов между приложениями «гигантами» и остальными. Текущая статистика говорит, что 1% приложений зарабатывает 95% всего дохода. С новым алгоритмом рекомендаций, основанных на персональных потребностях пользователей, доля «гигантов» должна немного уменьшится.

3. Исчезнет серое продвижение, основанное на накрутках рейтинга и количества установок для удержания приложений в топах категорий и поиска. Для конечного пользователя и действительно качественных приложений это хорошо. Потребитель получит то приложение, которое будет закрывать потребность здесь и сейчас, разработчик получит наиболее качественную аудиторию для дальнейшей монетизации, а также не будет тратить бюджеты на продвижение серыми методами с целью удерживать позиции, пока менее качественные приложения за счет своих бюджетов и серого продвижения занимают места в топах. Бюджет будет направлен на более официальные и измеримые источники трафика.

Механизмы ранжирования Google улучшает регулярно. Возможно, при обучении  ИИ происходят столь бурные смены параметров, что не знаешь, куда унесет какую программу. Разработчикам стоит быть готовым к тому, что иногда их приложения резко теряют популярность. Не стоит сразу дергаться. Если это произошло резко и без видимых причин, возможно, стоит переждать очередные «учения» и дождаться, пока ИИ придет в себя.

Со стороны интернет-компании хотелось бы чуть больше открытости и информирования о таких процессах, чтобы понимать, что «буря» скоро закончится.

битва за контроль над сильным ИИ / Хабр

Демис Хассабис основал компанию по созданию самого мощного в мире ИИ. Затем её купила Google

В августе 2010 года в конференц-зале в пригороде Сан-Франциско на сцену вышел 34-летний лондонец по имени Демис Хассабис. Он вышел неторопливой походкой человека, который пытается контролировать нервы, сжал губы в краткой улыбке и начал: «Итак, сегодня мы поговорим о разных подходах к разработке…» — тут запнулся, словно вдруг осознав, что озвучивает потаённые честолюбивые помыслы. Но потом всё-таки сказал: «… сильного ИИ».

Сильный ИИ (artificial general intelligence или AGI) означает универсальный искусственный интеллект — гипотетическую компьютерную программу, способную выполнять интеллектуальные задачи как человек или даже лучше. Сильный ИИ сможет выполнять отдельные задачи, такие как распознавание фотографий или перевод текста, которые являются единственными задачами каждого из слабых ИИ в наших телефонах и компьютерах. Но он также будет играть в шахматы и говорить по-французски. Будет понимать статьи по физике, сочинять романы, разрабатывать инвестиционные стратегии и вести восхитительные беседы с незнакомыми людьми. Он будет следить за ядерными реакциями, управлять электросетями и транспортными потоками и без особых усилий преуспеет во всём остальном. AGI сделает сегодняшний самый продвинутый ИИ похожим на карманный калькулятор.


Единственный интеллект, который в настоящее время способен выполнять все эти задачи — тот, которым наделены люди. Но человеческий интеллект ограничен размером черепа. Сила нашего мозга ограничена ничтожным количеством энергии, которое способно обеспечить тело. Поскольку AGI работает на компьютерах, он не будет страдать ни от одного из этих ограничений. Сильный интеллект ограничен только количеством доступных процессоров. Он может начать с мониторинга ядерных реакций. Но достаточно быстро откроет новые источники энергии, переваривая за секунду больше научных работ по физике, чем способен человек за тысячу жизней. Человеческий интеллект в сочетании со скоростью и масштабируемостью компьютеров заставит исчезнуть проблемы, которые в настоящее время кажутся неразрешимыми. В интервью британскому Observer Хассабис сказал, что, среди прочего, сильный ИИ должен овладеть такими дисциплинами и решить такие проблемы, как «рак, изменение климата, энергетика, геномика, макроэкономика [и] финансовые системы».

Конференция, на которой выступал Хассабис, называлась Singularity Summit. По мнению футурологов, сингулярность относится к наиболее вероятному следствию появления AGI. Поскольку он обрабатывает информацию на высокой скорости, то очень быстро поумнеет. Быстрые циклы самосовершенствования приведут к взрыву машинного интеллекта, оставив людей далеко позади задыхаться от кремниевой пыли. Поскольку это будущее целиком построено на фундаменте непроверенных предположений, вопрос о том, считать ли сингулярность утопией или адом, почти религиозен.

Судя по названиям лекций на конференции, участники тяготеют к мессианству: «Разум и как его построить»; «ИИ как решение проблемы старения»; «Замена наших тел»; «Изменение границы между жизнью и смертью». Лекция Хассабиса, напротив, выглядит не слишком впечатляющей: «Системный нейробиологический подход к построению AGI».

Хассабис расхаживает между трибуной и экраном, что-то быстро говоря. На нём тёмно-бордовый джемпер и белая рубашка на пуговицах, как у школьника. Небольшой рост, кажется, только усиливает его интеллект. До сих пор, объяснил Хассабис, учёные подходили к AGI с двух сторон. В области символического ИИ исследователи пытались описать и запрограммировать все правила для системы, которая могла бы мыслить как человек. Этот подход был популярен в 80-90-е годы, но не дал желаемых результатов. Хассабис считает, что ментальная структура мозга слишком утончённая, чтобы описать её подобным образом.

В другой области работали исследователи, которые пытались воспроизвести физические сети мозга в цифровой форме. В этом был определённый смысл. В конце концов, мозг — это вместилище человеческого интеллекта. Но эти исследователи были введены в заблуждение, сказал Хассабис. Их задача оказалась примерно такого же масштаба, как попытка нанести на карту все звёзды во Вселенной. Более того, она фокусируется на неправильном уровне. Это похоже на попытку понять, как работает Microsoft Excel, разбирая компьютер и изучая взаимодействия транзисторов.

Вместо этого Хассабис предложил золотую середину: сильный ИИ должен черпать вдохновение из широких методов, с помощью которых мозг обрабатывает информацию, а не из физических систем или конкретных правил, которые он применяет в конкретных ситуациях. Другими словами, учёным следует сосредоточиться на понимании программного обеспечения мозга, а не его «железа». Новые методы, такие как функциональная магнитно-резонансная томография, позволяют заглянуть внутрь мозга во время его деятельности. Они делают возможным такое понимание. Последние исследования показали, что мозг учится во сне, заново воспроизводя полученные переживания, чтобы вывести общие принципы. Исследователи ИИ должны подражать этой системе.

В правом нижнем углу слайда появился логотип — круглый голубой водоворот. Под ним два слова: DeepMind. Это было первое публичное упоминание новой компании.

Хассабис потратил целый год, пытаясь получить приглашение на Singularity Summit. Лекция была всего лишь прикрытием. Что ему действительно было нужно, так это одна минута с Питером Тилем, миллиардером из Силиконовой долины, который финансировал конференцию. Хассабис хотел получить его инвестиции.

Хассабис никогда не говорил, почему стремился получить поддержку именно от Тиля (для этой статьи он через пресс-секретаря отказался от нескольких запросов на интервью). Мы поговорили с 25 источниками, включая нынешних и бывших сотрудников и инвесторов. Большинство из них высказывались анонимно, поскольку не имели права говорить о компании. Но Тиль верит в AGI с ещё большим пылом, чем Хассабис. В своём выступлении в 2009 году Тиль сказал, что его самый большой страх за будущее — не восстание роботов (хотя в изолированной от всего мира Новой Зеландии он лучше защищён, чем большинство людей). Скорее он боится, что сингулярность придёт слишком поздно. Миру нужны новые технологии, чтобы предотвратить экономический спад.

В конечном итоге DeepMind получил £2 млн венчурного финансирования; в том числе £1,4 млн от Тиля. Когда компанию в январе 2014 года купила Google за $600 млн, ранние инвесторы зафиксировали прибыль в размере 5000%.

Для многих основателей это был бы счастливый конец. Можно притормозить, сделать шаг назад и наслаждаться деньгами. Для Хассабиса сделка с Google стала ещё одним шагом в его стремлении к сильному ИИ. Почти весь 2013 год он провёл в переговорах по сделке. DeepMind будет действовать отдельно от родительской компании. Хассабис получит все корпоративные привилегии, такие как доступ к денежному потоку и вычислительной мощности, не теряя контроль над компанией.

Хассабис думал, что DeepMind станет гибридом: у него будет драйв стартапа, мозги величайших университетов и глубокие карманы одной из самых богатых компаний в мире. Всё было сделано для того, чтобы ускорить разработку сильного ИИ и помочь человечеству.


Демис Хассабис родился в Северном Лондоне в 1976 году в семье грека-киприота и китаянки-сингапурки. Он был старшим из трёх братьев и сестёр. Мама работала в универмаге John Lewis, а отец — в магазине игрушек. Мальчик обучился игре в шахматы в четыре года, наблюдая за игрой отца и дяди. Через несколько недель взрослые уже не могли у него выиграть. К 13 годам Демис стал вторым шахматистом мира в своём возрасте. В восемь лет он самостоятельно научился программировать.

В 1992 году Хассабис окончил школу на два года раньше срока. Он устроился программировать видеоигры в Bullfrog Productions, где написал игру Theme Park. В ней игроки строили и управляли виртуальным парком развлечений. Игра оказалась очень успешной с 15 млн проданных копий. Она принадлежала новому жанру симуляторов, в которых цель состоит не в том, чтобы победить противника, а в том, чтобы оптимизировать функционирование такой сложной системы, как бизнес или город.

Theme Park для Android, 2018

Демис не только разрабатывал игры, но и великолепно в них играл. В подростковом возрасте он разрывался между соревнованиями по шахматам, скрэбблу, покеру и нардами. В 1995 году, изучая информатику в Кембриджском университете, Хассабис попал на студенческий турнир по го. Это древняя настольная стратегическая игра, которая значительно сложнее, чем шахматы. Предполагается, что мастерство требует интуиции, приобретённой долгим опытом. Никто не знал, играл ли Хассабис раньше.

Во-первых, Хассабис выиграл турнир для начинающих. Затем обыграл победителя турнира для опытных игроков, хотя и с форой. Организатор турнира, кембриджский мастер го Чарльз Мэтьюз помнит шок опытного игрока после проигрыша 19-летнему новичку. Мэтьюз взял Хассабиса под свою опеку.

Интеллект и амбиции Хассабиса всегда проявлялись в играх. Игры, в свою очередь, пробудили в нем интерес к интеллекту. Наблюдая за своим прогрессом в шахматах, он задавался вопросом: можно ли запрограммировать компьютеры так, чтобы они учились как он, на основе накопленного опыта. Игры предлагали обучающую среду, с которой не мог сравниться реальный мир. Они были чёткими и самодостаточными. Поскольку игры отделены от реальности, их можно практиковать без вмешательства в реальный мир и эффективно осваивать. Игры ускоряют время: за пару дней можно создать преступный синдикат, а битва на Сомме завершается за считанные минуты.

Летом 1997 года Хассабис отправился в Японию. В мае того же года компьютер Deep Blue от IBM победил чемпиона мира по шахматам Гарри Каспарова. Впервые компьютер выиграл у шахматного гроссмейстера. Матч привлёк внимание всего мира и вызвал озабоченность по поводу растущей мощности и потенциальной угрозы компьютеров. Когда Хассабис познакомился с японским мастером настольных игр Масахико Фудзувареа, то рассказал ему о плане, который объединяет его интересы в стратегических играх и искусственном интеллекте: однажды он построит компьютерную программу, которая победит величайшего игрока в го.

Хассабис действовал методично: «В возрасте 20 лет Хассабис придерживался мнения, что определённые вещи должны быть на месте, прежде чем он займётся ИИ на том уровне, на котором хотел, — говорит Мэтьюз. — У него был план».

В 1998 году он основал собственную игровую студию Elixir. Хассабис сосредоточился на одной чрезвычайно амбициозной игре — Republic: The Revolution, сложном политическом симуляторе. Много лет назад ещё в школе Хассабис сказал своему другу Мустафе Сулейману, что миру нужен грандиозный симулятор, чтобы смоделировать его сложную динамику и решить самые сложные социальные проблемы. Теперь он попытался сделать это в игре.

Вписаться в игровые рамки оказалось труднее, чем он ожидал. В конце концов Elixir выпустила сокращённую версию игры, чтобы смягчить отзывы. Другие игры провалились (в том числе симулятор злодея из бондианы под названием Evil Genius). В апреле 2005 года Хассабис закрыл Elixir. Мэтьюз считает, что Хассабис основал компанию просто для того, чтобы получить управленческий опыт. Теперь Демису для начала работы над сильным ИИ не хватало только одной важной области знаний. Ему нужно было понять человеческий мозг.

В 2005 году Хассабис получил степень доктора нейробиологии в Лондонском университетском колледже (UCL). Он опубликовал знаменитые исследования памяти и воображения. Одна из его статей, которая с тех пор цитировалась более 1000 раз, показала, что люди с амнезией также испытывают трудности с осмысливанием новых переживаний, предполагая, что существует связь между запоминанием и созданием ментальных образов. Хассабис создавал представление мозга, подходящее для задачи создания AGI. Бóльшая часть работы сводилась к одному вопросу: как человеческий мозг получает и сохраняет концепции и знания?

Хассабис официально основал DeepMind 15 ноября 2010 года. Миссия компании с тех пор неизменна: «решить интеллект», а затем использовать его для решения всего остального. Как сказал Хассабис участникам Singularity Summit, это означает перевод нашего понимания принципов, как работает мозг, в программное обеспечение, которое сможет использовать те же методы самообучения.

Хассабис понимает, что наука ещё не полностью постигла суть человеческого разума. Проект сильного ИИ нельзя просто создать на базе сотен нейробиологических исследований. Но он явно считает, что известно уже достаточно, чтобы начать работу над сильным ИИ. И всё же есть вероятность, что его уверенность опережает реальность. Мы всё ещё очень мало знаем, как на самом деле функционирует мозг. В 2018 году результаты собственной кандидатской диссертации Хассабиса были поставлены под сомнение командой австралийских исследователей. Это всего лишь одна статья, но она показывает, что научные мнения, лежащие в основе DeepMind, далеки от консенсуса.

Соучредителями компании стали Мустафа Сулейман и Шейн Легг, одержимый AGI новозеландец, с которым Хассабис также познакомился в UCL. Репутация фирмы росла, а Хассабис пожинал плоды своего таланта. «Он словно магнит», — говорит Бен Фолкнер, бывший операционный менеджер DeepMind. Многие сотрудники жили в Европе, далеко от HR-отделов гигантов Кремниевой долины, таких как Google и Facebook. Возможно, главным достижением DeepMind стал найм сотрудников сразу после основания, чтобы найти и сохранить самых ярких и лучших талантов в области ИИ. Компания открыла офис в мансарде таунхауса на Рассел-сквер в Блумсбери, через дорогу от UCL.

Один из методов машинного обучения, на котором сосредоточилась компания, вырос из двойного увлечения Хассабиса играми и нейробиологией: это обучение с подкреплением. Такая программа предназначена для сбора информации об окружающей среде, а затем обучения на ней, многократно воспроизводя полученный опыт, подобно активности человеческого мозга во сне, как рассказывал Хассабис в своей лекции на Singularity Summit.

Обучение с подкреплением начинается с чистого листа. Программе показывают виртуальную среду, о которой она не знает ничего, кроме правил. Например, симуляция игры в шахматы или видеоигры. Программа содержит по крайней мере один компонент, известный как нейронная сеть. Она состоит из слоёв вычислительных структур, которые просеивают информацию, чтобы идентифицировать конкретные функции или стратегии. Каждый слой исследует окружающую среду на новом уровне абстракции. Сначала эти сети действуют с минимальным успехом, но важно, что каждая неудача оставляет след и кодируется внутри сети. Постепенно нейросеть становится всё более изощрённой, поскольку экспериментирует с разными стратегиями — и получает награду в случае успеха. Если программа перемещает шахматную фигуру и в результате проигрывает игру, то больше не повторит эту ошибку. Бóльшая часть магии искусственного интеллекта заключается в скорости, с которой он повторяет свои задачи.

Кульминацией работы DeepMind стал 2016 год, когда компания выпустила программу AlphaGo, которая использовала обучение с подкреплением наряду с другими методами, для игры в го. Ко всеобщему удивлению, в пятиматчевом поединке в Сеуле программа обыграла чемпиона мира. За победой машины наблюдали 280 млн зрителей: это событие произошло на десятилетие раньше, чем предсказывали эксперты. В следующем году улучшенная версия AlphaGo победила китайского чемпиона по го.

Как и Deep Blue в 1997 году, AlphaGo изменила восприятие того, в чём состоит превосходство человека. Чемпионы по настольным играм, одни из самых блестящих умов на планете, больше не считались вершиной интеллекта. Почти через 20 лет после разговора с японским мастером Фудзувареа Хассабис исполнил своё обещание. Позже он сказал, что во время матча чуть не расплакался. По традиции, ученик го благодарит учителя, одолев его в матче. Хассабис отблагодарил Мэтьюза, одолев игру целиком.

DeepBlue победила благодаря грубой силе и скорости вычислений, но стиль AlphaGo казался художественным, почти человеческим. Его изящество и изощрённость, превосходство вычислительной мускулатуры словно показывали, что DeepMind дальше, чем конкуренты, продвинулся в разработке программы, способной лечить болезни и управлять городами.


Хассабис всегда говорил, что DeepMind изменит мир к лучшему. Но в сильном ИИ нет никакой уверенности. Если он когда-нибудь возникнет, мы не знаем, будет он альтруистичным или злонамеренным, подчинится ли человеческому контролю. Даже если и так, кто возьмёт на себя управление?

С самого начала Хассабис пытался защитить независимость DeepMind. Он всегда настаивал, чтобы DeepMind оставалась в Лондоне. Когда Google купил компанию в 2014 году, вопрос контроля стал более актуальным. Хассабис не обязан был продавать компанию. У него хватало денег, и он набросал бизнес-модель, по которой компания разрабатывает игры для финансирования исследований. Финансы Google имели вес, но, как и многие основатели, Хассабис не хотел отдавать компанию, которую взрастил. В рамках сделки DeepMind заключила соглашение, которое не позволит Google в одностороннем порядке взять под контроль интеллектуальную собственность компании. По словам осведомлённого лица, перед сделкой стороны подписали контракт под названием Соглашение об оценке этики и безопасности (Ethics and Safety Review Agreement). Соглашение, о котором ранее не сообщалось, было составлено серьёзными лондонскими юристами.

Соглашение передаёт контроль над основной технологией сильного ИИ компании DeepMind, когда бы ни был создан этот ИИ, а именно — руководящей группе под названием Совет по этике (Ethics Board). По словам того же источника, Совет по этике — не какая-то косметическая уступка со стороны Google. Он даёт DeepMind прочную юридическую поддержку для сохранения контроля над своей самой ценной и потенциально самой опасной технологией. Имена членов совета не были обнародованы, но другой источник, близкий к DeepMind и Google, говорит, что в него входят все три основателя DeepMind (компания отказалась отвечать на вопросы о соглашении, но сказала, что «контроль за этикой с первых дней был для нас приоритетом»).

Хассабис может определить судьбу DeepMind и в иных отношениях. Один из них — верность персонала. Прошлые и нынешние сотрудники говорят, что исследовательская программа Хассабиса — одна из самых сильных сторон DeepMind. Его программа предлагает увлекательную и важную работу, свободную от давления академических кругов. Такие условия привлекли сотни самых талантливых экспертов мира. У DeepMind дочерние офисы в Париже и Альберте. Многие сотрудники чувствуют бóльшую близость с Хассабисом и его миссией, чем с жаждущей доходов материнской корпорацией. Пока Хассабис сохраняет личную лояльность, у него значительная власть над своим единственным акционером. Для Google лучше, чтобы таланты DeepMind работали на неё через посредника, чем они уйдут в Facebook или Apple.

У DeepMind есть ещё один рычаг, хотя он требует постоянного пополнения: благоприятная реклама. Компания преуспевает в этом. AlphaGo стал настоящей пиар-бомбой. С момента приобретения Google фирма неоднократно производила чудеса, которые привлекали внимание всего мира. Одна программа DeepMind умеет диагностировать глазные заболевания по скану сетчатки. Другая научилась играть в шахматы с нуля, используя архитектуру в стиле AlphaGo, став величайшим шахматистом всех времён всего за девять часов самообучения. В декабре 2018 года программа под названием AlphaFold превзошла конкурентов в задаче прогнозирования трёхмерной структуры белков по списку компонентов, потенциально прокладывая путь к лечению таких заболеваний, как болезнь Паркинсона и болезнь Альцгеймера.

DeepMind особенно гордится разработанными алгоритмами, которые вычисляют наиболее эффективные средства охлаждения дата-центров Google, где работает примерно 2,5 миллиона серверов. DeepMind заявила в 2016 году, что они уменьшили расходы Google на электроэнергию на 40%. Но некоторые инсайдеры говорят, что это преувеличенная цифра. Google использовала алгоритмы для оптимизации дата-центров задолго до DeepMind: «Они просто хотят иметь некоторый пиар, чтобы повысить свою ценность в Alphabet», — говорит один сотрудник Google. Материнская для Google компания Alphabet щедро платит DeepMind за такие услуги. Так, в 2017 году DeepMind выставила ей счёт на £54 млн. Эта цифра бледнеет по сравнению с текущими расходами DeepMind: только на персонал в том году было потрачено £200 млн. В целом, убытки DeepMind в 2017 году составили £282 млн.

Это жалкие гроши для богатого интернет-гиганта. Но другие убыточные компании Alphabet привлекли внимание Рут Порат, бережливого главного финансового директора Alphabet. Например, подразделение Google Fiber пыталось создать высокоскоростного интернет-провайдера, проводя оптоволоконные линии в частные дома. Но проект приостановили, когда стало ясно, что потребуются десятилетия, чтобы вернуть инвестиции. Поэтому исследователям ИИ важно доказывать свою актуальность, чтобы не привлечь цепкий взгляд миссис Порат, чьё имя уже стало нарицательным в Alphabet.

Планомерные достижения DeepMind в области ИИ являются частью стратегии взаимоотношения с владельцами компании. DeepMind сигнализирует о своей репутационной мощи. Это особенно важно, когда Google обвиняют во вторжении в частную жизнь пользователей и распространении фейковых новости. DeepMind также повезло иметь сторонника на самом высоком уровне: Ларри Пейдж, один из двух основателей Google, теперь исполнительный директор Alphabet. Пейдж — это самое близкое, что есть у Хассабиса в материнской компании. Отец Пейджа, Карл, изучал нейронные сети в 60-е годы. В начале своей карьеры Пейдж сказал, что создал Google исключительно для того, чтобы основать компанию ИИ.

Жёсткий контроль над DeepMind, чтобы хорошо выглядеть в глазах прессы, не совсем соответствует академическому духу, который пронизывает компанию. Некоторые исследователи жалуются, что им трудно опубликовать свои работы: приходится преодолевать несколько уровней внутренней цензуры, прежде чем они смогут хотя бы представить доклад для конференции или статью для журнала. DeepMind считает, что необходимо действовать осторожно, чтобы не пугать общественность перспективой сильного ИИ. Но слишком плотное молчание может испортить академическую атмосферу и ослабить лояльность сотрудников.

Через пять лет после приобретения Google вопрос о том, кто контролирует DeepMind, подходит к критической точке. Основатели фирмы и первые сотрудники скоро смогут уйти со своей финансовой компенсацией (акции Хассабиса, вероятно, после покупки Google стоят около £100 млн). Но источник, близкий к компании, предполагает, что Alphabet отодвинул время монетизации опционов основателей на два года. Учитывая свою неустанную сосредоточенность на миссии, Хассабис вряд ли покинет корабль. Деньги интересуют его лишь постольку, поскольку они помогают достичь цели всей жизни. Но некоторые коллеги уже ушли. С начала 2019 года компанию покинули три инженера ИИ. И Бен Лори, один из самых известных в мире специалистов по безопасности, теперь вернулся в Google, к своему предыдущему работодателю. Это число невелико, ведь DeepMind предлагает такую волнующую миссию и достойную оплату, что мало кто уходит.

До сих пор Google не вмешивалась в дела DeepMind. Но одно недавнее событие вызвало озабоченность по поводу того, как долго компания сможет сохранять независимость.

DeepMind всегда планировала использовать ИИ для улучшения здравоохранения. В феврале 2016 года было создано новое подразделение DeepMind Health во главе с Мустафой Сулейманом, одним из соучредителей. Сулейман, чья мать работала медсестрой в Национальной службе здравоохранения (NHS), надеялся создать программу под названием Streams, которая будет предупреждать врачей, когда здоровье пациента ухудшается. DeepMind должна была зарабатывать на каждом эффективном срабатывании системы. Поскольку эта работа требовала доступа к конфиденциальной информации о пациентах, Сулейман учредил Независимую контрольную комиссию (Independent Review Panel, IRP), в состав которой вошли представители британского здравоохранения и технологического сектора. DeepMind действовала очень осторожно. Впоследствии британский комиссар по информации обнаружил, что одна из больниц-партнёров нарушила закон при обработке данных о пациентах. Тем не менее, к концу 2017 года Сулейман подписал соглашения с четырьмя крупными больницами NHS.

8 ноября 2018 года Google сообщила о создании собственного подразделения Google Health. Пять дней спустя объявили, что DeepMind Health должна быть включена в состав материнского подразделения. Судя по всему, DeepMind никто не предупредил. Согласно документам, которые мы получили по запросу в соответствии с законом о свободе информации, DeepMind уведомила больницы-партнёры об этом изменении только за три дня. Компания отказалась сообщить, когда начались обсуждения по поводу слияния, но сказала, что короткий промежуток между уведомлением и публичным объявлением отвечает интересам прозрачности. Сулейман написал в 2016 году, что «ни на каком этапе данные пациентов никогда не будут связаны или ассоциированы с учётными записями, продуктами или услугами Google». Похоже, его обещание было нарушено. (Отвечая на вопросы нашего издания, DeepMind сказала, что «на данном этапе ни один из наших контрактов не перешёл в Google, и это возможно только с согласия наших партнёров. То, что Streams стал сервисом Google, не означает, что данные пациентов… могут использоваться в других продуктах или услугах Google»).

Аннексия Google разозлила сотрудников DeepMind Health. По словам людей, близких к этому подразделению, по завершении поглощения многие сотрудники планируют уволиться. Один из членов IRP, Майк Брэкен, уже ушёл. По словам нескольких человек, знакомых с событием, Брэкен ушёл в декабре 2017 года из-за опасений, что «контрольная комиссия» скорее представляет собой витрину, чем подлинный надзор. Когда Брэкен спросил Сулеймана, будет ли тот подотчётен комиссии и уравняет ли их полномочия с неисполнительными директорами, Сулейман лишь усмехнулся. (Представитель DeepMind сказал, что «не помнит» о таком инциденте). Джулиан Хупперт, глава IRP, утверждает, что группа обеспечила «более радикальное управление», чем ожидал Брекен, поскольку члены могли говорить открыто и не были связаны обязанностью соблюдать конфиденциальность.

Этот эпизод показывает, что периферийные подразделения DeepMind уязвимы перед Google. В заявлении DeepMind говорится: «Мы все согласились с тем, что имеет смысл объединить эти усилия в рамках одного совместного проекта с более мощным ресурсом». Возникает вопрос, не применит ли Google ту же логику к работе DeepMind над сильным ИИ.

Со стороны кажется, что DeepMind добилась большого успеха. Она уже разработала программное обеспечение, способное обучиться выполнять задачи на сверхчеловеческом уровне. Хассабис часто упоминает Breakout, видеоигру для консоли Atari. Игрок Breakout управляет платформой в нижней части экрана и отражает мяч, который отскакивает от блоков вверху, разрушающихся от удара. Игрок выигрывает, когда уничтожены все блоки. Проигрывает, если пропускает мяч. Без человеческих инструкций программа DeepMind не только научилась играть в игру, но и разработала стратегию, как запустить мяч в пространство над блоками, где он долго скачет и зарабатывает кучу очков без усилий со стороны игрока. По словам Хассабиса, это демонстрирует силу обучения с подкреплением и сверхъестественные способности компьютерных программ DeepMind.

Впечатляющая демонстрация. Но Хассабис кое-что упускает. Если виртуальную платформу переместить хотя бы на пару пикселей вверх, программа потерпит неудачу. Навык, приобретённый программой DeepMind, настолько ограничен, что не может реагировать даже на крошечные изменения в окружающей среде, которые способен учитывать человек — по крайней мере, не без тысяч дополнительных раундов обучения. Но подобные изменения — неотъемлемая часть окружающей действительности. Для диагноста нет двух одинаковых органов тела. Для механика никакие два двигателя невозможно настроить одинаково. Поэтому системы, обученные в виртуальном пространстве, могут испытать трудности при запуске в реальных условиях.

Второй подвох, о котором редко говорит DeepMind, заключается в том, что успех в виртуальных средах зависит от наличия функции вознаграждения: сигнала, который позволяет нейросети измерять свой прогресс. Программа видит, что многократный рикошет от задней стены увеличивает счёт. Главной частью разработки AlphaGo было создание функции вознаграждения, совместимой с такой сложной игрой. К сожалению, реальный мир не предлагает простых вознаграждений. Прогресс редко измеряется отдельными баллами. Даже если они существуют, задача осложняется политическими проблемами. Настройка сигнала вознаграждения на улучшение климата (концентрация CO₂ в атмосфере) противоречит сигналу вознаграждения для нефтяных компаний (цене акций) и требует компромисса с многими людьми противоречивых мотиваций. Сигналы вознаграждения, как правило, очень слабы. Человеческий мозг редко получает чёткую обратную связь об успехе задачи во время её выполнения.


DeepMind нашла действенный способ обучения, используя огромный объём вычислительных ресурсов. Программа AlphaGo обучалась в течении тысяч лет игрового времени, прежде чем что-то поняла. Многие специалисты по ИИ подозревают, что такой способ не сработает для задач, которые предлагают более слабые вознаграждения. DeepMind признаёт проблему. Недавно она сосредоточилась на StarCraft 2, стратегической компьютерной игре. Решения, принятые в начале игры, имеют гораздо более поздние последствия, что ближе к запутанной и запоздалой обратной связи в реальном мире. В январе программа DeepMind победила некоторых из лучших игроков в мире в демо-версии, которая, хотя и была сильно ограничена, всё ещё впечатляла. Её программы также начали изучать функции вознаграждения с учётом обратной связи от учителя-человека. Но задействуя учителя, вы рискуете потерять эффект масштаба и скорости, которые предлагала чистая компьютерная обработка.

Нынешние и бывшие исследователи DeepMind и Google, которые попросили сохранить анонимность из-за строгих соглашений о неразглашении, также выразили скептицизм, что с помощью таких методов DeepMind может создать сильный ИИ. По их мнению, акцент на высокой производительности в виртуальных средах затрудняет решение проблемы с сигналом вознаграждения. И всё же игровой подход лежит в основе DeepMind. В компании есть внутренняя таблица лидеров, где программы от конкурирующих программистских команд соперничают за виртуальные домены.

Хассабис всегда воспринимал жизнь как игру. Большая часть его карьеры посвящена разработке игр, а большая часть свободного времени потрачена на игровую практику. В DeepMind он избрал игры как основное средство для создания сильного ИИ. Как и его программное обеспечение, Хассабис может учиться только на своём опыте. Люди могут забыть о первоначальной задаче, поскольку DeepMind уже изобрела некоторые полезные медицинские технологии и превзошла по классу величайших игроков в настольные игры. Это значительные достижения, но не те, которых жаждет основатель компании. Впрочем, у него всё ещё есть шанс создать сильный ИИ прямо под носом у Google, но вне контроля корпорации. Если это получится, то Демис Хассабис победит в самой сложной игре.

ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человеком

В мае 2017 года исследователи из Google Brain представили проект AutoML, который автоматизирует проектирование моделей машинного обучения. Эксперименты с AutoML показали, что эта система может генерировать маленькие нейросети с очень хорошими показателями — вполне сравнимые с нейросетями, которые спроектированы и обучены экспертами-людьми. Однако поначалу возможности AutoML были ограничены маленькими научными наборами данных вроде CIFAR-10 и Penn Treebank.

Инженеры Google задумались — а что если поставить перед генератором ИИ более серьёзные задачи? Способна ли эта система ИИ сгенерировать другую ИИ, которая будет лучше созданного человеком ИИ в какой-нибудь важной задаче вроде классификации объектов из базы ImageNet — самого известного из крупномасштабных наборов данных в машинном зрении. Так появилась нейросеть NASNet, созданная практически без участия человека.


Как выяснилось, ИИ справляется с проектированием и обучением нейросетей не хуже человека. Задача классификации объектов из набора данных ImageNet и определения объектов из набора данных COCO осуществлялась в рамках проекта Learning Transferable Architectures for Scalable Image Recognition.

Разработчики проекта AutoML говорят, что задача оказалась нетривиальной, потому что новые наборы данных на несколько порядков больше, чем прежние, с которыми привыкла работать система. Пришлось изменить некоторые алгоритмы работы AutoML, в том числе перепроектировать пространство поиска, чтобы AutoML мог найти наилучший слой и многократно продублировать его перед созданием окончательного варианта нейросети. Кроме того, разработчики исследовали варианты архитектуры нейросетей для CIFAR-10 — и вручную перенесли самую успешную архитектуру на задачи ImageNet и COCO.

Благодаря этим манипуляциям система AutoML сумела обнаружить самые эффективные слои нейросети, которые хорошо работали для CIFAR-10 и в то же время хорошо проявили себя в задачах ImageNet и COCO. Эти два обнаруженных слоя были объединены для формирования инновационной архитектуры, которую назвали NASNet.

Архитектура NASNet состоит из слоёв двух типов: нормальный слой (слева) и слой сокращения (справа). Эти два слоя спроектированы генератором AutoML

Бенчмарки показали, что автоматически сгенерированный ИИ превосходит по результатам классификации и определения объектов все остальные системы машинного зрения, созданные и обученные экспертами-людьми.

Так, в задаче классификации на базе ImageNet нейросеть NASNet продемонстрировала точность предсказания 82,7% на проверочном наборе. Этот результат выше, чем все ранее спроектированные модели машинного зрения семейства Inception. Система NASNet показала результат как минимум на 1,2 процентных пункта выше, чем все известные нейросети машинного зрения, включая самые последние результаты из работ, ещё не опубликованных в научной прессе, но уже выложенных на сайте препринтов arXiv.org.

Исследователи подчёркивают, что NASNet можно масштабировать и, следовательно, приспособить для работы на системах со слабыми вычислительными ресурсами без особой потери точности. Нейросеть способна работать даже на мобильном телефоне со слабым CPU с ограниченным ресурсом памяти. Авторы говорят, что миниатюрная версия NASNet демонстрирует точность 74%, что на 3,1 процентных пункта лучше, чем самые качественные известные нейросети для мобильных платформ.

Когда усвоенные признаки из классификатора ImageNet перенесли на распознавание объектов и совместили с фреймворком Faster-RCNN, то в задаче распознавания объектов COCO система показала наилучшие результаты как в большой модели, так и в уменьшенном варианте для мобильных платформ. Большая модель показала результат 43,1% mAP, что на 4 процентных пункта лучше, чем у ближайшего конкурента.

Авторы открыли исходный код NASNet в репозиториях Slim и Object Detection для TensorFlow, так что каждый может сам испытать новую нейросеть в работе.

Научная статья опубликована 1 декабря 2017 года на сайте препринтов arXiv.org (arXiv:1707.07012v3, третья версия).

5 лучших экспериментов Google AI для исследования искусственного интеллекта

Где бы ни находились передовые технологии, Google не сильно отстает. В качестве альтернативы они извлекли огромный кошелек Google из непостижимо глубоких карманов Google и сокращают чек, чтобы опередить своих конкурентов.

Искусственный интеллект ничем не отличается.

У Google есть несколько экспериментов с ИИ, с которыми вы можете поиграть прямо сейчас. А поскольку некоторые из этих экспериментов зависят от машинного обучения, ваше прямое взаимодействие действительно поможет развитию.Вот некоторые из лучших экспериментов Google AI, в которые вы можете поиграть прямо сейчас.

Обратите внимание, что для некоторых экспериментов требуется доступ к камере через рабочий стол или устройство Android.

Я немного повеселился с Thing Translator.Почему? Потому что вы можете ходить по дому, сканировать предметы и слушать мгновенные переводы на один из девяти языков. Это на удивление вызывает привыкание.

Thing Translator не знает, что все такое, но он пытается перевести все, что вы ему бросаете.Для некоторых объектов по умолчанию используется «изображение», а для определенных пространств — «дизайн».

thing translator google

Тем не менее, Thing Translator может застать вас врасплох.Я сфотографировал свое лицо и получил ответ «волосы» — довольно удачный, учитывая мою бороду, но не ответ «лицо» или «мальчик / мужчина», которого я ожидал.

Опять же, мои дети указали им на коврик на полу, ожидая, что там написано «коврик» или «ковер», но переводчик Thing вернулся с «вязанием крючком».»Когда вы делаете снимок, он показывает процентное соотношение того, что, по его мнению, было изображением, к тому, что оно было переведено.

thing translator google

Как вы видели, Thing Translator не является стопроцентно надежным переводчиком.Но это определенно поможет вам в крайнем случае, особенно если вы находитесь в другой стране с хорошими связями и используете один из интегрированных языков.

Чтобы использовать Thing Translator, вам понадобится смартфон Android с камерой или компьютер с камерой.Thing Translator в настоящее время недоступен для пользователей iOS.

Кто сказал, что искусственный интеллект бесполезен?

5 Common Myths About Artificial Intelligence That Are't True Featured

Использование в будущем

Thing Translator уже используется в нескольких местах, и вы можете использовать его, если у вас есть подключение к Интернету.По мере обучения алгоритма точность его переведенных результатов будет повышаться. Ожидайте увидеть его как интегрированную функцию Android или, по крайней мере, как приложение, предназначенное для путешественников.

Обратите внимание, , что версия Thing Translator в магазине Google Play является копией реального продукта.Не скачивайте — это может быть афера!

NSynth — еще один немного увлекательный эксперимент Google AI.Это «звукорежиссер», позволяющий «создавать необычные новые звуки с помощью машинного обучения». Но что это значит?

Ну, вы выбираете один звук, например, арфы, и комбинируете его с другим звуком, например, мяуканьем кошки.Да. Арфа. И кошачье мяуканье. Я упоминал, что звуки были необычными?

Ниже приведено видео, в котором мы с детьми комбинируем звуки, так что вы получите реальную картину того, как работает NSynth.

Использование в будущем

NSynth: Sound Maker, похоже, не имеет какого-либо общего использования, за исключением дизайна новых интересных звуковых комбинаций.Однако я не особо музыкальный человек. Следовательно, вы можете найти гораздо большую ценность в этом эксперименте Google AI. Безумные комбинации могут быть именно тем, что нужно вашей группе / оркестру / ди-джею, чтобы добиться международной известности.

Infinite Drum Machine объединяет тысячи повседневных звуков в единую, простую в управлении драм-машину.Создание этого эксперимента с ИИ было интересным (и продолжающимся). Алгоритм машинного обучения упорядочивает звуки, но не имеет описания или тегов. Вместо этого похожие звуки помещаются близко друг к другу.

Вы перемещаете один из четырех маркеров разных цветов, каждый из которых представляет собой ритм-петлю для драм-машины.Затем вы можете изменить секвенсор, чтобы создать свою собственную драм-машину в бесконечном цикле с возможностью рандомизации звуков или регулировки темпа.

Использование в будущем

Я не мог найти никакого реального использования NSynth.И хотя The Infinite Drum Machine может показаться еще одной какофонией шума, стоящий за ней организационный алгоритм — t-распределенное стохастическое встраивание соседей или t-SNE — уже используется в кибербезопасности, исследованиях рака, биоинформатике и многом другом.

Этот эксперимент Google AI пытается создать песню из сделанных вами изображений.Джорджио Кам использует распознавание изображений, чтобы определить, что вы сфотографировали, а затем превращает метки изображений в тексты песен. Затем текст песни звучит в веселом ритме электро-диско.

Честно говоря, это одновременно и ужасно, и увлекательно.Как и Thing Translator, Джорджио Кам полностью и совершенно неправильно распознает изображения, как вы увидите в видео ниже. Но это эксперимент с машинным обучением, и поэтому он все еще учится.

Использование в будущем

Я совершенно не уверен.Создавать веселую дискотечную музыку на лету, добавляя свежие тексты? Я открыт для идей по этому поводу …

AI Duet позволяет вам сыграть импровизированный фортепианный дуэт с искусственным интеллектом.Лучшие моменты AI Duet — это моменты, когда ваши ноты и AI синхронизируются, создавая изысканный гармоничный момент. По крайней мере, мне они кажутся изысканными.

Это подводит меня к следующему пункту: вам не нужно никаких музыкальных знаний, чтобы хорошо провести время с AI Duet.

Именно об этом и идет речь в AI Duet.Помогая людям раскрыть свой потенциально нереализованный творческий потенциал с помощью эксперимента по машинному обучению.

Использование в будущем

Полное музыкальное сотрудничество с AI не кажется таким нереальным.Алгоритмические композиции — это устоявшаяся часть музыки. Этот интерфейс AI просто привносит в алгоритм человекоподобный интерфейс и последовательность ответов. Однако AI Duet также указывает на более контекстно-зависимый AI, который реагирует и повторяет наше взаимодействие.

Идите и экспериментируйте

С экспериментами, которые мы рассмотрели, интересно поиграть.Моим детям все они так или иначе показались забавными. И им понравилось исследовать эксперимент с искусственным интеллектом Bird Sounds. Посмотрите видео ниже:

Кроме того, они дают небольшое представление о том, куда движется ИИ в ближайшем будущем.И даже когда непосредственное использование в реальном мире не сразу очевидно, всегда есть больше применений для алгоритма взаимодействия AI.

Как вы думаете, есть ли у этих экспериментов с ИИ потенциал? Какой эксперимент может изменить наше ближайшее будущее?

Кредиты изображений: maxuser / Shutterstock

google-logo-clouds

Все, что мы знаем о новом Google Chromecast

Об авторе

Гэвин Филлипс
(Опубликовано 578 статей)

Гэвин — старший писатель MUO.Он также является редактором и SEO-менеджером дочернего сайта MakeUseOf, ориентированного на криптовалюту, Blocks Decoded. У него есть степень бакалавра (с отличием) в области современного письма с использованием методов цифрового искусства, разграбленных на холмах Девона, а также более десяти лет профессионального писательского опыта. Он любит много чая.

Ещё от Gavin Phillips

Подпишитесь на нашу рассылку новостей

Подпишитесь на нашу рассылку, чтобы получать технические советы, обзоры, бесплатные электронные книги и эксклюзивные предложения!

Еще один шаг…!

Подтвердите свой адрес электронной почты в только что отправленном вам электронном письме.

.

Google Assistant, ваш личный Google

перейти к содержанию

  • Обзор

  • Получите Google Ассистент

    • Телефоны

    • Компьютерные колонки

    • Умные дисплеи

    • Легковые автомобили

    • Телевизоры

    • Ноутбуки и планшеты

    • Носимые

    • Больше устройств

  • Что он умеет

    • Начать

    • Изучить все действия

  • Новости и ресурсы

    • Новости

    • Партнеры

    • Для разработчиков

    • Для бизнеса

    • Обнаружить

.

Искусственный интеллект

Мануэла Велозо: Итак, в J.P. Morgan интересно то, что мы — фирма, которая существует уже давно. Но у этой фирмы большой аппетит.

Эшли Томпсон: Одно можно сказать наверняка: никакие два дня здесь никогда не выглядят одинаково. Я люблю начинать свой день в Лондоне пораньше. Поскольку мы глобальная команда, это дает мне возможность проанализировать работу, которую наша команда в Нью-Йорке проделала вчера вечером, и пообщаться вживую с моими коллегами в Индии.

Вирджил Мисон: Центр передового опыта в области машинного обучения разрабатывает и внедряет модели машинного обучения на различных торговых и ИТ-платформах J.P. Morgan.

Сакет Шарма: J.P. Morgan, как банк, внедряет машинное обучение во многие рабочие процессы. Итак, как инженер по машинному обучению, это прекрасное время для работы над проблемами, оказывающими влияние на всю компанию.

Самик Чандарана: Нам нужны люди и искусственный интеллект для совместной работы, потому что, в конечном итоге, наличие и обучение на основе того, что люди делают сегодня в процессах, которые они делают и как они работают сегодня, дает большой объем информации о том, как мы проектируем системы будущего .

Энди Александр: Внешние конференции действительно важны по ряду причин. Во-первых, это позволяет нам привнести в организацию лучшее из научных кругов и сторонних мнений. Во-вторых, это позволяет команде продолжать учиться. Мы во многом полагаемся на то, куда мы идем, а также на то, где мы были.

Лидия Мангу: Итак, мы вернулись с конференции, зная, где находится поле. И как, вы знаете, взять эти современные методы и применить их к проблемам в банке.

Симран Ламба: Самая захватывающая и новая вещь в работе с AI Research — публикация нашей работы на наиболее уважаемых научных конференциях, таких как ICML, AAAI и NeurIPS. Мы не только участвуем, но также проводим и спонсируем семинары на этих конференциях.

Нафтали Коэн: Я могу сосредоточиться на горячих темах искусственного интеллекта и машинного обучения, таких как обучение с подкреплением, криптография и объяснимость.

Эшли Томпсон: Миллионы людей используют наши продукты и услуги и полагаются на них каждый день.Работая здесь, у вас есть возможность быть в авангарде изменения этого взаимодействия.

Мануэла Велозо: Мы применяем и открываем новые методы искусственного интеллекта для решения сложных проблем, таких как торговля, многоагентное моделирование рынка, обнаружение мошенничества, борьба с отмыванием денег и проблемы, связанные с данными.

Вирджил Мисон: Как технолог я был больше всего удивлен широким спектром проблем, которые нам приходится решать, и тем, что J.P. Morgan находится в уникальном положении для решения благодаря большому количеству доступных данных.

Samuel Assefa: Мы фокусируемся на ряде исследовательских проблем. Один из самых захватывающих — обеспечение того, чтобы модели ИИ были объяснимыми, справедливыми и беспристрастными.

Энди Александер: За всю свою жизнь я не ожидал, что обобщенный ИИ станет чем-то массовым. И поэтому мы долгое время ожидаем, что люди и машины будут помогать друг другу.

Лидия Мангу: Каждый день индивидуален. Каждый день мы получаем новую сложную задачу.Иногда у этой проблемы нет известного решения, и это похоже на новую головоломку. Иногда есть известное решение, но мы показываем, как мы можем добиться большего, используя современные методы машинного обучения.

Мануэла Велозу: Сейчас многие считают, что ИИ и машинное обучение — это одноразовая сделка. Мы сделали это, мы сделали. Мы никогда не закончим.

Нафтали Коэн: Я работаю с одними из лучших и наиболее креативных умов в этой области, и я владею своей работой, что очень полезно.

Нафтали Коэн: Я изучаю, как применить инновационные методы компьютерного зрения и глубокого обучения, чтобы понять сложность принятия решений на финансовом рынке и рекомендовать клиентам рыночные возможности.

Симран Ламба: Что меня больше всего волнует в моей работе здесь, в Нью-Йорке, так это возможность учиться у наших руководителей и внешних профессоров. И моя любимая часть дня — мозговой штурм творческих исследовательских идей для решения проблем во всех сферах бизнеса.

Simran Lamba: В настоящее время я использую журналы событий клиентов Chase, которые называются «Путешествие клиентов», чтобы найти способы сделать обслуживание наших клиентов еще лучше.

Мануэла Велозо: Мы действительно верим, что молодые люди в некотором смысле обладают таким видением. Это может мыслить масштабно и что они не ограничены.

Самик Чандарана: Наши клиенты становятся моложе, они хотят взаимодействовать по-разному, и нам нужны свежие таланты, которые помогли бы нам с этими новыми идеями и фактически реализовали их таким образом, чтобы это было удобно для клиентов.

Lidia Mangu: Я бы посоветовал младшему руководителю быть непредубежденным. Не бояться узнавать новое каждый день. Поле движется очень быстро.

Вирджил Мисон: У J.P. Morgan есть много возможностей для обучения. Например, сотрудничество с экспертами в области обработки естественного языка, глубокого обучения, временных рядов и обучения с подкреплением.

Эшли Томпсон: Я очень рад быть частью перехода к культуре, основанной на данных.

КОНЕЦ

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *