Разное

Хабрахабр машинное обучение: Машинное обучение – Основа искусственного интеллекта / Хабр

Содержание

Машинное обучение – Основа искусственного интеллекта / Хабр

Сразу скажу что назвать себя программистом или знатоком машинном обучении у меня язык не поворачивается, скажем так — программирую я лучше 90% трейдеров и разбираюсь в трейдинге лучше 99% программистов и datascientists. Это не к тому что я такой молодец, это скорей к вопросу какая дыра непонимания существует между областями знаний, которую я попытаюсь немножко устранить.

Я веду свой блог на трейдерском сайте, где описываю свои подходы прикрутить ML к трейдингу. При том что я сам весьма начинающий в области ML, прямо скажем я не часто встречаю релевантные отзывы, ибо 90% практикующих трейдеров о нейросетях только слышали и имеют представление о нем как о розовом пони. В равной мере когда я вижу как какой то чистый математик или програмист пробует реализовать свои знания применительно к фондовому рынку, у меня частенько начинает литься кровь из глаз.

Написать свой первый пост на хабре меня сподвигла 2 статьи на хабре на тему прогнозирования активов, одна совсем древняя, другая свежая, я даже ее откаментировал. Так часто бывает когда что то хорошее вызывает желание алаверды. А статья хороша хотя бы тем, что там совершенно верный подход к трейдингу на финансовых рынках: «выдвигаем гипотезу-тестируем на истории». Ничего лучше не придумано (хотя наверно есть гении которые могут познав суть предмета, прогнозировать его дальнейшее состояние, даже такое, которое раньше не существовало в истории). Многие трейдеры вообще этого не понимают, предпочитая торговать по книжкам гуру или избитым техиндикаторам. Можно было бы бомбить эту статью комментариями, но справедливее, помимо критики было бы написать что то полезное для всех ребят из IT («критикуешь?! А ты предложи что то взамен!»), которые вооружившись инструментарием ML хотят попробовать реализовать свои знания на финансовых рынках. А этот интерес очевидный, так как финансовый рынок как своего рода интеллектуальное казино предоставляет возможность капитализировать свои знания, трудолюбие, талант, осталось дело за малым — создать рабочий алгоритм позволяющий выносить денюжки с рынка. На языке трейдеров называется это алготрейдингом. Но много ли вы слышали о удачном применении ML в трейдинге? Я лично нет, хотя можно самоуспокоиться тем, что удачные реализации никто светить не будет, и все на самом деле работает и пока мы тут пишем и читаем, кто то удачно вооружившись градиентным бустингом или сверточной сетью делает профиты мозолистыми пальцами, холодной головой и горячим сердцем. Но сдается мне не так все просто. Помимо того что фондовый рынок вообще нельзя прогнозировать (ога!), тут есть некоторые проблемы реализации, которые я попытаюсь, путанно, но изложить.

PoBrum/mlcourse_open: OpenDataScience Machine Learning course (yet Russian-only)

Open Machine Learning Course

⬇️Russian version below ⬇️

❗ The course in English starts as a series of Medium articles on Feb 5, 2018. The 3-rd session (in Russian) launches at the same date. To participate, fill in the form. The course is free but you can support organizers by making a pledge on Patreon ❗

About the course on Habrahabr. Youtube-channel with lecture videos (in Russian). The course is discussed in the #mlcourse_open channel in the OpenDataScience Slack team.

The course aims at developing both theoretical understanding of main machine learning concepts and practical skills of applying DS/ML techniques for solving real-world tasks. For this purpose, on one hand, the Habrahabr articles are full of math but on the other hand, there are lots of homeworks and several Kaggle competitions held throughout the course. Moreover, participants come up with their own tutorials on DS/ML topics and convey individual projects.

Among prerequisites for comfortably passing the course are basic Python skills and acquaintance with math concepts (calculus, linear algebra, probability theory and statistics) from the 2-nd year’s high school curriculum.

Outline

These are the topics of the Medium articles to appear from Feb 5 to Apr 7, 2018. With RUS are given the links to the corresponding Habrahabr articles in Russian.

  1. Exploratory data analysis with Pandas, RUS
  2. Visual data analysis with Python, RUS
  3. Classification, decision trees and k Nearest Neighbors, RUS
  4. Linear classification and regression, RUS
  5. Bagging and random forest, RUS
  6. Feature engineering and feature selection, RUS
  7. Unsupervised learning: Principal Component Anslysis and clustering, RUS
  8. Vowpal Wabbit: learning with gigabytes of data, RUS
  9. Time series analysis with Python, RUS
  10. Gradient boosting, RUS

More info in Russian

❗ 3-ий запуск будет 5 февраля 2018 г., поддержать курс можно на краудфандинговой платформе Patreon ❗

Статья про курс на Хабре. Youtube-канал c онлайн-трансляциями и записями лекций.
Курс обсуждается в Slack OpenDataScience в канале #mlcourse_open.

Цель курса – развить понимание основных концепций машинного обучения (теория) и дать навыки его использования (практика). Поэтому статьи не без математики и поэтому в курсе множество активностей: домашние задания, соревнования на Kaggle Inclass, слушатели сами пишут тьюториалы по интересным темам и выполняют индивидуальные проекты.

Требуются начальные навыки программирования на Python и знание математики (математический анализ, линейная алгебра, теория вероятностей, математическая статистика) на уровне 2 курса технического ВУЗа. Подробнее – в Wiki репозитория.

Статьи на Хабрахабре

  1. Первичный анализ данных с Pandas
  2. Визуальный анализ данных с Python
  3. Классификация, деревья решений и метод ближайших соседей
  4. Линейные модели классификации и регрессии
  5. Композиции: бэггинг, случайный лес
  6. Построение и отбор признаков
  7. Обучение без учителя: PCA и кластеризация
  8. Обучаемся на гигабайтах с Vowpal Wabbit
  9. Анализ временных рядов с помощью Python
  10. Градиентный бустинг. Часть 1
  11. Градиентный бустинг. Часть 2. Скоро…

Видеолекции

  1. Первичный анализ данных с Pandas
  2. Визуальный анализ данных с Seaborn и Matplotlib
  3. Классификация. Деревья решений
  4. Логистическая регрессия + обсуждение соревнования Kaggle
  5. Случайный лес
  6. Регрессия, регуляризация
  7. Обучение без учителя
  8. Признаки, SGD, Vowpal Wabbit
  9. Временные ряды
  10. Градиентный бустинг

Беседы с гуру Data Science

  1. Александр Дьяконов
  2. Константин Воронцов
  3. Евгений Соколов

Домашние задания

  1. Анализ данных по доходу населения UCI Adult, ipynb
  2. Визуальный анализ данных о публикациях на Хабрахабре, ipynb
  3. Деревья решений в игрушечной задаче и на данных Adult репозитория UCI, ipynb
  4. Линейные модели классификации и регрессии в соревнованиях Kaggle Inclass. Часть 1: идентификация взломщика. ipynb Часть 2: прогноз популярности статьи на Хабрахабре, ipynb
  5. Логистическая регрессия и случайный лес в задаче кредитного скоринга, ipynb
  6. Работа с признаками, ipynb
  7. Метод главных компонент, t-SNE и кластеризация, ipynb
  8. Предсказание числа просмотров вики-страницы, ipynb

Проекты

  1. Идентификация пользователей по последовательности посещенных сайтов («Элис»). Описание. Тетрадки.
  2. Индивидуальные проекты. Описаны на Wiki.

Wiki-страницы этого репозитория:

  • Prerequisites: Python, математика, DevOps. О том, как лучше подготовиться к прохождению курса, если навыков программирования или знаний математики не хватает.
  • Все активности по втором запуске курса. Домашки, соревнования, проекты, тьюториалы и мини-конкурсы и все, за что еще можно получить баллы и, главное, опыт.
  • План совместного прохождения курса cs231n c 15.11.2017
  • Авторы статей и лекторы. Вкратце представляем всех, кто поработал над курсом.
  • ПО для прохождения курса и Docker – как настроить все ПО для прохождения курса. В частности, описывается, как запустить у себя Docker-контейнер, в котором уже все установлено.
  • Топ-100 1-ой сессии курса. 1-я сессия курса прошла с 28 февраля по 10 июня 2017 года – с домашними заданими, соревнованиями, тьюториалами, конкурсами по визуализации и общим рейтингом. Более 500 участников.
  • Топ-100 2-ой сессии курса. 2-я сессия курса прошла с 6 сентября по 17 ноября 2017 года – добавились индивидуальные проекты. Более 1300 участников.
  • Тьюториалы и проекты. Одним из заданий в курсе было написать тьюториал на одну из тем вокруг машинного обучения и анализа данных и выполнить индивидуальный проект по предложенному плану.

Топ англоязычные сайты типа российского habrahabr

Топ англоязычные сайты типа российского habrahabr[Apr. 20th, 2015|09:35 am]

Yuri Panchul

Господа! Мне нужна консультация. Какие вы знаете топ англоязычные сайты типа российского habrahabr ? Для разработчиков и людей в academia, не гаджет-лаверов.
Comments:

Мне нужен список ресурсов такого типа, который бы target не русских, а равномерно всех. Чтобы там был хардверный уклон при этом (но не гаджет-лаверы, а разработчики и профессора в academia).

Китайский тоже нужен

reddit в сабах может быть, больше ничего не ум не приходит.

Да, вот это ближе всего. Спасибо!

Мы сделали https://techhype.io/ — Community Driven сборник статей о разработке и маркетинге ИТ-продуктов, технологиях.

Hackaday разве что. Но на Хабре (субъективно!) больше софтверщиков, а Hackaday больше для тех, кто на железе повёрнут.

Да, но это похоже сайт для хоббистов-ардуинщиков, а мне бы (для некоей цели) сайт с больше с академическими и индустриальными читателями

академический читатель читает, ясное дело, https://www.academia.edu/ 🙂
я, по крайней мере, читаю именно его 🙂

как узнаешь, напиши отдельным постом с жирными буквами

рунет в техническом плане сегодня нередко более продвинут в плани информации чем нерусскоязычная часть, к тому же NDA для российских раработчиков — пустой звук

Ну да, именно поэтому 12% хабра переводы 🙂

Если сравнивать с процентом статей, переведённых с хабра на английский, это на 100% больше 🙂
Впрочем, по поводу NDA соглашусь. Ещё любовь к срачам подогревает популярность. Недавний эпик между Адамовским и Платовым собрал тонны комментариев.

Анализ статей Хабрахабр и Geektimes / СоХабр

Сначала была идея собрать частотный словарь слов Хабрахабр и Geektimes, но потом нашла прекрасное: Детальный анализ Хабрахабра с помощью языка Wolfram Language (Mathematica) (перед просмотром данной статьи рекомендую пройти по ссылке), увидела разницу в результатах и решила сделать подобное для статей с Хабрахабр и Geektimes. В обзор не попали статьи с подкастами и нестандартным оформлением (habrahabr.ru/article). Получился анализ 170000 статей. Все изображения кликабельны. Код Wolfram Notebook на github. Датасет на Яндекс.Диске. UPD: по поводу расчета рейтинга — я тоже ошиблась при расчете. Тут в обсуждении OsipovRoman пишет, что отличия небольшие.

Анализ хабов

Распределение количества хабов, в которых размещена статья:


Самые большие хабы по количеству статей:


Если рассмотреть только уникальные статьи (относящиеся только к одному хабу):


Граф связей не делала, т.к. не собирала список хабов отдельно.

Количество статей в зависимости от времени

В подписи к картинкам упомянут только Хабрахабр, но подразумеваем и Geektimes тоже.

Количество постов за месяц:


За год:


В хабе «Математика»:


Хаб «Космонавтика»:


Хаб «Хабрахабр»:

Количество изображений (видео), используемых в постах в зависимости от времени

И в отдельных хабах:

Облака ключевых слов и отдельных хабов

Вот тут функция WordCloud какое значение ни передавай атрибуту WordOrientation (Random,{-Pi/4,Pi/4}) рисовала все по-умолчанию:


Хаб «Математика»:


Хаб «Программирование»:


Хаб «Java»:


Хаб «Open source»:


Хаб «Машинное обучение»:

Сайты, на которые ссылаются в статьях

Убираем Хабрахабр как источник ссылок:


В хабе «Математика» (без Хабрахабра как источника ссылок):


Хаб «Разработка под iOS»:


Хаб «.NET»:

Коды, которые приводят в статьях

Без SomeCode (если не указан язык программирования):


В хабе «Алгоритмы»:


В хабе «Программирование»:


В хабе «Настройка Linux»:


В хабе «Машинное обучение»:

Частота встречаемости слов

В хабе «Разработка под iOS»


В хабе «Разработка под Android»:


Частота употребления названий операционных систем в хабе «Open source»:


И на Хабрахабре/Geektimes:

Рейтинг и числа просмотров постов, а также вероятность достижения их определенных значений

Средний рейтинг поста на Хабрахабре/Geektimes равен 25.6067, а среднее количество просмотров 13487.2.

Математическое ожидание: {25.6067, 13487.2}

Среднеквадратическое отклонение: {35.9361, 28783.9}

Вероятность, того, что пост наберет определенный рейтинг:


Вероятность, того, что пост наберет определенное число просмотров:

Зависимость рейтинга и числа просмотров поста от времени публикации

Зависимость рейтинга поста от его объема

Средний объем поста на Хабрахабре/Geektimes равен 5199 символов.

Вероятность того, что пост с объемом не превышающим заданное количество символов наберет рейтинг не менее заданного:


Кстати по поводу частот слов. До использования Wolfram в Jupyter Notebook с помощью библиотек pymorphy2, nltk построила облака слов по годам, но для меньшего количества статей. Брала 50 самых часто встречающихся слов в статье (исключив стоп-слова), а затем объединяла словари по всем статьям за определенный год. Облака построены в Tagul. КДПВ — это облако слов для 2006 года. Для 2016-го:

Посты с максимальным количеством

Изображений: «Обзор почтовых клиентов под Android, или как я почтовик выбирал»
Комментариев: «Как раздавать инвайты на Google+»
Рейтингом: «Делаем приватный монитор из старого LCD монитора»
Количеством тегов: «Информационно-технологические средства практического выживания социальных сообществ в условиях отключения Интернета в 2014 году»
Просмотрами: «Взломать Wi-Fi за… 3 секунды»
Количеством видео: «DUMP-2016: видео всех докладов в одном посте. Бесплатно. Без СМС»
Количеством ссылок: «Лженаука и аферисты. Фальшивые научные журналы»
Текста: «Создаем клон Flappy Bird — Zombie Bird»

Отчет с Moscow Data Science Meetup 27 мая / Mail.ru Group corporate blog / Habr

27 мая в офисе Mail.Ru Group прошёл очередной Moscow Data Science Meetup. На встрече собирались представители крупных российских компаний и научных организаций, а также энтузиасты в области машинного обучения, рекомендательных систем анализа социальных графов и смежных дисциплин. Гости делились друг с другом своим опытом решения практических задач анализа данных. Предлагаем вашему вниманию видеозаписи и презентации трёх докладов, представленных на встрече.

Дмитрий Носов, Rambler&Co, h3O на Spark: как мы пили газировку и чуть не захлебнулись

h3O — интересная и многообещающая платформа машинного обучения. Она может порадовать аналитика скоростью работы с большими объемами данных, набором алгоритмов, наличием API для нескольких языков программирования, и, конечно же, красивыми и подробными отчетами по построенным моделям. h3O написана на Java, поэтому работает вездеTM, в том числе на кластере Spark. В докладе спикер поделился своим опытом использования h3O на Spark и YARN, а также причинами отказа от использования h3O в production-окружении, несмотря на все ее положительные качества.

Видеозапись выступления: it.mail.ru/video/724

Павел Филонов, «Лаборатория Касперского», Глубокое обучение и извлечение признаков в прогнозировании временных рядов

Автоматическое выделение признаков, которые имеет место при построении глубоких сетей, видится перспективным инструментом, способным значительно сократить объём работ по подготовке данных. В докладе рассмотрена задача прогнозирования значений временного ряда и сравнены подходы к ее решениям как с использованием ручного выделения признаков, так и построенные на полностью автоматической обработке сырых данных.

Видеозапись выступления: it.mail.ru/video/723

Александр Дьяконов, ВМК МГУ, Решение задачи Search Results Relevance (на платформе Kaggle)

Разобрана задача по определению релевантности поисковой выдачи, которая решалась на прошлогоднем «Практическом семинаре по АД kaggle». Был описан очень простой алгоритм, который не использует сложных методов анализа текстов, словарей и ансамблей алгоритмов, и который, тем не менее, смог попасть в десятку сильнейших среди более чем 1300 участников.

Видеозапись выступления: it.mail.ru/video/722

Напоминаем, что в данный момент на платформе ML Boot Camp проходит организованный нами конкурс по машинному обучению. Регистрируйтесь, до конца контеста осталось чуть больше двух недель, желающие запросто успеют ворваться в ТОП! 🙂

Машинное обучение (machine learning). Все новости в области machine learning

1. Определение

Машинное обучение (machine learning) – раздел отрасли искусственного интеллекта,
занимающийся разработкой программ, способных меняться под воздействием внешних
факторов. Программное обеспечение использует статистический анализ и
прогнозирование для выявления закономерностей и принятия решения по
корректировке кода программы.

2. История создания и развития


Разработка алгоритмов машинного обучения началась с появлением искусственного интеллекта. Первой программой, способной самообучаться, принято считать игру в шашки, изобретенную Артуром Самуэлем в 1952 году. Программа анализировала текущие позиции и выбирала наилучшие варианты для последующих ходов. Тогда А. Самуэль дал первое определение машинному обучению – «область исследований разработки машин, не являющихся заранее запрограммированными». В 1957 году была предложена модель нейронной сети, похожая на современные алгоритмы машинного обучения. С тех пор и по настоящее время ведется активная разработка молей и систем машинного обучения, среди которых: алгоритм дерева решений (1986 год), метод опорных векторов (1995 год), с 2005 года – глубокое обучение (Deep Learning) и т.д.


В последнее время исследования в области machine learning, так или иначе, связаны с Интернетом вещей, концепцией «умный» город, создания беспилотного транспорта.

3. Технические характеристики


Машинное обучение (machine learning) в основном подразделяют на два вида:


  • контролируемое – поиск зависимости между конечным результатом и первоначальным описанием задачи;


  • неконтролируемое – в этом случае конечный результат не известен заранее и требуется искать зависимости между объектами, т.е. стоит задача упорядочить данные или описать их структуру.


При контролируемом наиболее популярными алгоритмами являются классификация, регрессия, ранжирование, обнаружение аномалий (последний часто используется для определения фактов мошенничества в банковских системах). При неконтролируемом – кластеризация, поиск ассоциаций, фильтрация выбросов и др. Также выделяют машинное обучение с подкреплением, чаще всего применяемое в робототехнике, где для каждого текущего действия выбирается наилучшее следующее. Также данный алгоритм снабжен обратной связью для оповещения успешности выбранного действия.


Выбор алгоритма машинного обучения зависит от многих факторов – от требуемых показателей времени обучения, линейности, точности, количества параметров и др. Так, например, быстрое время обучения показывает алгоритм регрессии, а высокую точность – лес решений, нейронная сеть.


Существуют различные подходы к machine learning, но их границы размыты, каждый подход использует различные алгоритмы и часто перетекает из одного в другой. Среди самых распространенных походов выделяют байесовскую теорию классификации, классификацию на основе сходства, нейронные сети, поиск закономерностей и др.

4. Кейсы применения


Сегодня машинное обучение применяется практически во всех областях науки и техники, самыми популярными приложениями являются обнаружение мошенничества, биржевой технический анализ, техническая диагностика, робототехника (яркий пример – создание компьютерного зрения, распознавание объектов и речи). Лента новостей социальной сети Facebook использует машинное обучение для составления персонального контента для каждого пользователя. Также часто машинное обучение используют при создании игр, чаще всего встречаются шахматы, для автоматизации медицинского диагностического программного обеспечения и т.д.

5. Полезные ссылки

Источники:

Материалы — Singularis lab

 

  • Шаповалов, О.В. (2018, Апрель). Применение ROS в промышленном приложении. Доклад был представлен на первом IT Meetup волгоградского сообщества iT-34, Волгоград, Россия.
  • Брианцони П., Якубчик Я., Крыжановский, Д.И., Катаев, А.В.(2018, Март). Дроны и искусственный интеллект. Доклад был представлен в интеллектуальному клубе Rotary International, Бормио, Италия.
  • Трансляция h364 видео без перекодирования и задержки. Статья в блоге Singularis Lab на Хабрахабр.
  • Никляев, И.Ю., Катаев, А.В.(2017, Август). Навигация и локализация. Доклад был представлен в онлайн-режиме в рамках Летней интернатуры Intel 2017.
  • Катаев, А.В.(2016, Октябрь). Распознавание маркеров дополненной реальности в реальных условиях. Доклад был представлен на CEE-SECR’16, Москва, Россия.
  • Никляев, И.Ю. (2016, Октябрь) Быстрое прототипирование системы управления БПЛА. (pptx pdf) Доклад был представлен на CEE-SECR’16, Москва, Россия.

Курс лекций на VII Всероссийской молодёжной школе по робототехнике, искусственному интеллекту и инженерному творчеству «Робошкола+»

Данный курс лекций читался сотрудниками нашей компании в рамках учебного курса «Компьютерное зрение и машинное обучение» наVII Всероссийской молодёжной школе по робототехнике, искусственному интеллекту и инженерному творчеству «Робошкола+» 19-24 ноября 2018 г.

Лекции, представленные на VIII Летней школе МФТИ — Иннополис

Данный курс лекций читался сотрудниками нашей компании на VIII Летней школе МФТИ — Университет Иннополис высокопроизводительных вычислений в области компьютерного зрения 15-21 августа 2016 г.

День 1

  • Катаев, А.В., Алексеев, А.В. (2016, Август). Введение в компьютерное зрение. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Базовые алгоритмы обработки изображений. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Введение в компьютерное зрение. Практика. (pdf)

День 2

  • Катаев, А.В., Алексеев, А.В. (2016, Август). Фильтрация изображений. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Методы поиска объектов. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Базовые алгоритмы обработки изображений. Практика. (pdf) Исходные материалы. (zip)

День 3

  • Катаев, А.В., Алексеев, А.В. (2016, Август). Машинное обучение в компьютерном зрении. Сверточные нейронные сети. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). TensorFlow MNIST example. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Машинное обучение в OpenCV. Практика. (pdf) Исходные материалы. (zip)

День 4

  • Агафонов В.Ю. (2016, Август). Введение в SLAM. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Работа с 3D. (pdf)
  • Катаев, А.В., Алексеев, А.В. (2016, Август). Исходные материалы. (zip)

День 5

  • Катаев, А.В., Алексеев, А.В. (2016, Август). Подготовка к хакатону. Практика (pdf)

Дополнительные материалы

  • Катаев, А.В., Алексеев, А.В. (2016, Август). Android + OpenCV. Основные понятия. (pdf) Исходные материалы. (zip)

 

Курс лекций «Компьютерное зрение и машинное обучение»

Данный курс лекций читался сотрудниками нашей компании в рамках учебного курса «Компьютерное зрение и машинное обучение» на VI Всероссийской молодёжной школе по робототехнике, встраиваемым системам и компьютерному зрению 9-13 ноября 2015 г.

  • Катаев, А.В., Алексеев, А.В. (2015, Ноябрь). Введение в компьютерное зрение. (pptx pdf) Доклад был представлен на Робошколе 2015, Волгоград, Россия.
  • Алексеев, А.В., Катаев, А.В. (2015, Ноябрь). Обработка изображений. Доклад был представлен на Робошколе 2015, Волгоград, Россия.
  • Филимонов, А.В. (2015, Ноябрь). Машинное обучение. Доклад был представлен на Робошколе 2015, Волгоград, Россия.

Курс лекций «Робототехника и искусственный интеллект»

Данный курс лекций читался сотрудниками нашей компании в рамках учебного курса «Робототехника и искусственный интеллект» на VI Всероссийской молодёжной школе по робототехнике, встраиваемым системам и компьютерному зрению 9-13 ноября 2015 г.

  • Крыжановский, A.И. (2015, Ноябрь) Поговорим о ROS. (7z pdf) Доклад был представлен на Робошколе 2015, Волгоград, Россия.
  • Никляев, И.Ю. (2015, Ноябрь) Фильтрация сенсорных данных. (pptx pdf) Доклад был представлен на Робошколе 2015, Волгоград, Россия.
  • Никляев, И.Ю. (2015, Ноябрь). Навигация и локализация. Доклад был представлен на Робошколе 2015, Волгоград, Россия.

 

  • Алексеев, А.В., Катаев, А.В. (2015, Октябрь). Опыт разработки приложения под Intel® RealSenseTM для анимации 3D-моделей (аватаров) на основе мимики пользователя. Доклад был представлен на SECR’15, Москва, Россия.
  • Катаев, А.В., Алексеев, А.В. (2015, Октябрь). Разработка приложений компьютерного зрения и дополненной реальности – в наше время это стало просто. (ppsx pdf) Доклад был представлен на SECR’15, Москва, Россия.
  • Никляев, И.Ю., Крыжановский, A.И., Бородинов, Л.Ю (2015, Октябрь) Реализация алгоритмов навигации БПЛА с использованием ROS. (ppsx pdf) Доклад был представлен на SECR’15, Москва, Россия.
  • Агафонов Г.В. (2018, Ноябрь). Опыт использования мобильной платформы Google Firebase. Доклад был представлен в офисе компании Singularis Lab, Волгоград, Россия.
  • Крыжановский, A.И. (2018, Май). Опыт использования Octopus. Доклад был представлен на втором IT Meetup волгоградского сообщества iT-34, Волгоград, Россия.
  • Никляев, И.Ю. (2018, Апрель). Опыт использования Elasticsearch. Доклад был представлен на первом IT Meetup волгоградского сообщества iT-34, Волгоград, Россия.
  • Осинцев, Д.С. (2018, Апрель). Подружим Angular и Redux. Доклад был представлен на первом IT Meetup волгоградского сообщества iT-34, Волгоград, Россия.
  • Пыхтин П.C. (2016, Октябрь). Переписать нельзя рефакторить. Доклад был представлен на CEE-SECR’16, Москва, Россия.
  • Шаповалов В.В. (2019, июль). Опыт работы с MobX. Доклад был представлен в офисе компании Singularis Lab, Волгоград, Россия.
  • Крыжановский А.И. (2019, июль). Опыт работы с библиотекой Polly. Доклад был представлен в офисе компании Singularis Lab, Волгоград, Россия.

Курс лекций по разработке приложений под .NET

Данный курс был разработан сотрудниками нашей компании для студентов и стажёров. Читался в рамках пилотных лекций весной 2015 года.

  • Пыхтин, П.С. (2015, Май). Code review. (ppsx pdf) Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Крыжановский, A.И. (2015, Май). Проблемы в .NET (ppsx pdf) Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Шаповалов, В.В (2015, Май). Веб сервисы WCF. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Крыжановский, A.И. (2015, Апрель). Параллелизм в .NET (ppsx pdf) Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Шаповалов, В.В (2015, Апрель). N-звенная архитектура инверсий зависимостей. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Пыхтин, П.С. (2015, Апрель). ORM.NHibernate. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Пыхтин, П.С. (2015, Апрель). ASP.Net MVC. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Усачева, Н.К. (2015, Апрель). Принципы SOLID. TDD. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Усачева, Н.К. (2015, Март). Знакомство с платформой .Net. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.
  • Крыжановский, A.И., Пыхтин, П.С. (2015, Март). Вводная лекция. Доклад был представлен на открытой лекции в Singularis Lab, Волгоград, Россия.

Курс лекций «Основы программирования на сопроцессоре Intel®Xeon Phi

TM«

Данный курс лекций читался сотрудниками нашей компании в рамках учебного курса «Основы программирования на сопроцессоре Intel®Xeon PhiTM» на Летней Суперкомпьютерной Академии с 27 июня по 2 июля 2016 г.

  • Гетманский, В.В. (2016, Июнь). Optimizations for 3-Dimensional Finite Difference (3DFD) . Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Сергеев, Е.С. (2016, Июнь). Improving performance of the N-Body problem. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Сергеев, Е.С. (2016, Июнь). OpenMP examples. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Гетманский, В.В. (2016, Июнь). Низкоуровневая оптимизация кода для Intel®Xeon PhiTM. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Гетманский, В.В. (2016, Июнь). Introduction to MPI. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Сергеев, Е.С., Гетманский, В.В. (2016, Июнь). Programming coprocessor Intel®Xeon PhiTM: from simple to complexTM. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.
  • Сергеев, Е.С. (2016, Июнь). Architecture overview. Доклад был представлен на Летней Суперкомпьютерной Академии 2016, Москва, Россия.

 

Серия практических занятий «Программирование на Intel®Xeon Phi™: от простого к сложному»

Данный курс читался сотрудниками нашей компании в рамках международной конференции IXPUG/RU 9-10 июня 2016 г.

  • Катаев, А.В. (2016, Июнь). Convolutional Neural Network Исходный код. Доклад был представлен на международной конференции IXPUG/RU, Санкт-Петербург, Россия.
  • Гетманский, В.В. (2016, Июнь). 3-Dimensional Finite Difference (3DFD) MPI Code. Доклад был представлен на международной конференции IXPUG/RU, Санкт-Петербург, Россия.
  • Гетманский, В.В. (2016, Июнь). Optimizations for 3-Dimensional Finite Difference (3DFD). Доклад был представлен на международной конференции IXPUG/RU, Санкт-Петербург, Россия.
  • Сергеев, Е.С. (2016, Июнь). Improving Performance of the N-Body problem. Доклад был представлен на международной конференции IXPUG/RU, Санкт-Петербург, Россия.
  • Сергеев, Е.С. (2016, Июнь). Programming coprocessor Intel® Xeon Phi™:from simple to complex course. Доклад был представлен на международной конференции IXPUG/RU, Санкт-Петербург, Россия.

 

Курс лекций «Параллельное программирование с использованием инструментов Intel»

Данный курс лекций читался сотрудниками нашей компании в рамках учебного курса «Параллельное программирование с использованием инструментов Intel» на Летней Суперкомпьютерной Академии 23-26 июня 2015 г.

  • Гетманский, В.В., Шаповалов, О.В., Сергеев, Е.С., Крыжановский Д.И. (2015, Июнь). Векторизация кода для Intel®Xeon PhiTM с помощью функций-интринсиков. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Гетманский, В.В., Шаповалов, О.В., Сергеев, Е.С., Крыжановский Д.И. (2015, Июнь). Профилирование энергопотребления высокопроизводительного MPI-приложения. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Гетманский, В.В., Шаповалов, О.В., Сергеев, Е.С., Крыжановский Д.И. (2015, Июнь). Оптимизация отображения ранга к узлу для MPI программ на больших кластерах. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Шаповалов, О.В., Сергеев, Е.С., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Применение параллельных вычислений в контексте конечно-элементного анализа задач геомагнитного зондирования. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Шаповалов, О.В., Сергеев, Е.С., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Вопрос распараллеливания в разработке ядра геометрического моделирования. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Шаповалов, О.В., Сергеев, Е.С., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Применение гибридного OpenMP/GPGPU подхода для ускорения вычислений 3D поля скорости по сейсмическим данным. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Шаповалов, О.В., Сергеев, Е.С., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Алгоритм Штрассена. Расширенная оптимизация под Intel® Xeon PhiTM. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Сергеев, Е.С., Шаповалов, О.В., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Сопроцессор Intel®Xeon PhiTM. Инструкции для выполнения лабораторных работ. Версия C++. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Сергеев, Е.С., Шаповалов, О.В., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Intel®MPI на Intel®Xeon PhiTM — Инструкции для выполнения лабораторных работ. Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.
  • Сергеев, Е.С., Шаповалов, О.В., Гетманский, В.В., Крыжановский Д.И. (2015, Июнь). Распределение вычислительной нагрузки в гетерогенных вычислительных сетях Доклад был представлен на Летней Суперкомпьютерной Академии 2015, Москва, Россия.

 

  • Шаповалов, О.В., Гетманский, В.В., Крыжановский Д.И., Сергеев, Е.С. (2015, Март). Алгоритм Штрассена. Расширенная оптимизация под Intel®Xeon PhiTM. Доклад был представлен на ПАВТ’15, Екатеринбург, Россия.
  • Гетманский, В.В., Чалышев, В.C., Крыжановский, Д.И., Лексиков Е.И. (2015, Март). Оптимизация отображения неоднородно взаимодействующих MPI процессов на вычислительную архитектуру. Статья была представлена на ПАВТ’15, Екатеринбург, Россия.
  • Сергеев, Е.С., Шаповалов, О.В., Чалышев, В.С., Крыжановский, Д.И. (2015, Март). Реализация алгоритма Штрассена на Intel®Xeon PhiTM. Статья была представлена на ПАВТ’15, Екатеринбург, Россия.

Машинное обучение — Основа искусственного интеллекта / Хабр

Автор: Сергей Лукьянчиков, инженер по продажам InterSystems

Что такое распределенный искусственный интеллект (DAI)?

Попытки найти «пуленепробиваемое» определение не дали результата: кажется, что термин немного «опередил время». Тем не менее, мы можем семантически проанализировать сам термин — сделав вывод, что распределенный искусственный интеллект — это тот же ИИ (см. Наши усилия по предложению «прикладного» определения), хотя он разделен между несколькими компьютерами, которые не сгруппированы вместе (ни по данным, ни с помощью приложений. , а не путем предоставления доступа к конкретным компьютерам в принципе).Т.е. в идеале распределенный искусственный интеллект должен быть устроен таким образом, чтобы ни один из компьютеров, участвующих в этом «распределении», не имел прямого доступа ни к данным, ни к приложениям другого компьютера: единственной альтернативой становится передача образцов данных и исполняемых скриптов через «прозрачный» Обмен сообщениями. Любые отклонения от этого идеала должны привести к появлению «частично распределенного искусственного интеллекта» — примером является распределение данных с помощью центрального сервера приложений.Или наоборот. Так или иначе, мы получаем в результате набор «объединенных» моделей (т.е. либо модели, обученные каждая на своих собственных источниках данных, либо каждая обученная по своим собственным алгоритмам, либо «обе сразу»).

Сценарии распределенного ИИ «для масс»

Мы не будем обсуждать периферийные вычисления, операторов конфиденциальных данных, разрозненный мобильный поиск или подобные увлекательные, но не самые сознательные и широко применяемые (пока еще нет) сценарии. Мы будем намного «ближе к жизни», если, например, рассмотрим следующий сценарий (его подробную демонстрацию можно и нужно посмотреть здесь): компания запускает решение AI / ML производственного уровня, качество его функционирования находится на высоком уровне. систематически проверяется внешним специалистом по обработке данных (т.е., специалист, не являющийся сотрудником компании). По ряду причин компания не может предоставить специалисту по данным доступ к решению, но может отправить ему образец записей из требуемой таблицы по расписанию или определенному событию (например, завершение сеанса обучения для одного или нескольких модели по решению). При этом мы предполагаем, что специалист по обработке данных владеет некоторой версией механизмов AI / ML, уже интегрированных в решение производственного уровня, которое использует компания, и вполне вероятно, что они разрабатываются, улучшаются и адаптируются к конкретным вариантам использования. этой конкретной компании, сам специалист по данным.Развертыванием этих механизмов в работающем решении, мониторингом их функционирования и другими аспектами жизненного цикла занимается инженер по данным (сотрудник компании).

Искусственный интеллект — AI, ANN и другие формы искусственного интеллекта / Хабр

Автор: Сергей Лукьянчиков, инженер по продажам InterSystems

Что такое распределенный искусственный интеллект (DAI)?

Попытки найти «пуленепробиваемое» определение не дали результата: кажется, что термин немного «опередил время».Тем не менее, мы можем семантически проанализировать сам термин — сделав вывод, что распределенный искусственный интеллект — это тот же ИИ (см. Наши усилия по предложению «прикладного» определения), хотя он разделен между несколькими компьютерами, которые не сгруппированы вместе (ни по данным, ни с помощью приложений. , а не путем предоставления доступа к конкретным компьютерам в принципе). Т.е. в идеале распределенный искусственный интеллект должен быть устроен таким образом, чтобы ни один из компьютеров, участвующих в этом «распределении», не имел прямого доступа ни к данным, ни к приложениям другого компьютера: единственной альтернативой становится передача образцов данных и исполняемых скриптов через «прозрачный» Обмен сообщениями.Любые отклонения от этого идеала должны привести к появлению «частично распределенного искусственного интеллекта» — примером является распределение данных с помощью центрального сервера приложений. Или наоборот. Так или иначе, мы получаем в результате набор «объединенных» моделей (т.е. либо модели, обученные каждая на своих собственных источниках данных, либо каждая обученная по своим собственным алгоритмам, либо «обе сразу»).

Сценарии распределенного ИИ «для масс»

Мы не будем обсуждать периферийные вычисления, операторов конфиденциальных данных, разрозненный мобильный поиск или подобные увлекательные, но не самые сознательные и широко применяемые (пока еще нет) сценарии.Мы будем намного «ближе к жизни», если, например, рассмотрим следующий сценарий (его подробную демонстрацию можно и нужно посмотреть здесь): компания запускает решение AI / ML производственного уровня, качество его функционирования находится на высоком уровне. систематически проверяется внешним специалистом по обработке данных (т. е. экспертом, не являющимся сотрудником компании). По ряду причин компания не может предоставить специалисту по данным доступ к решению, но может отправить ему образец записей из требуемой таблицы по расписанию или определенному событию (например, завершение сеанса обучения для одного или нескольких модели по решению).При этом мы предполагаем, что специалист по обработке данных владеет некоторой версией механизмов AI / ML, уже интегрированных в решение производственного уровня, которое использует компания, и вполне вероятно, что они разрабатываются, улучшаются и адаптируются к конкретным вариантам использования. этой конкретной компании, сам специалист по данным. Развертыванием этих механизмов в работающем решении, мониторингом их функционирования и другими аспектами жизненного цикла занимается инженер по данным (сотрудник компании).

Big Data — Все о больших данных / Хабр

Подробнее см. В разделе «Робототехника».snowcron.comЭто первая статья в серии, посвященной классификации монет. Имея в Интернете бесчисленное количество классификаторов «собаки против кошек» или «найти пешехода на улице», классификация монет не выглядит сложной задачей. Сначала. К сожалению, это на порядок сложнее — действительно серьезная задача. Вы можете легко отличить решку? Отлично. Сможете выяснить, сдвинуто ли число на 1 мм влево? Видите ли, с точки зрения классификатора это все та же голова … хотя она может иметь значение между обычной монетой, оцененной в соответствии с номером на ней, и редкой, в 1000 раз дороже.Конечно, мы можем делать то, что обычно делаем при классификации изображений: предоставлять 10 000 образцов изображений … Нет, подождите, мы не можем. Некоторые типы монет действительно редки — вам нужно перебрать КОРЗИНУ (10 литров) монет, чтобы найти одну. Простая арифметика предполагает, что для получения 10000 изображений РАЗНЫХ монет вам понадобится 10000 корзин монет для начала. Ну и неограниченное время. Так что это не так просто. В любом случае, мы собираемся начать с получения большого количества изображений и работать оттуда. Мы будем использовать российские монеты в качестве примера, поскольку в 1994 году в России была проведена денежная реформа, и поэтому количество монет, которые можно ожидать найти в кармане, ограничено.В отличие от США с 200-летней монетарной историей. И да, мы собираемся сосредоточиться ТОЛЬКО на текущих монетах: конечная цель нашей работы — написать программу для смартфона, чтобы классифицировать монеты, полученные в продуктовом магазине, как сдачу, что еще больше усугубляет ситуацию, поскольку мы не можем больше рассчитывайте на хорошее освещение и качественные камеры. Но мы все же попробуем. В дополнение к «только российским монетам, начиная с 1994 года» мы добавим дополнительное ограничение: никаких особых монет. Эти монеты выглядят самобытно, поэтому любой может понять, что это особенная монета.Мы ориентируемся на ОБЫЧНЫЕ монеты. Что сильно ограничивает их количество. Не поймите меня неправильно: если нам нужно применить тот же подход к полному списку монет … это сработает. Но у меня есть 15 ГБ изображений для этого ограниченного набора, представляете, насколько велик будет полный набор ?! Чтобы получить изображения, я собираюсь отсканировать один из крупнейших российских сайтов монет «meshok.ru». Этот сайт позволяет покупателям и продавцы, чтобы найти друг друга; продавцы могут загружать изображения … именно то, что нам нужно. К сожалению, продавец, ориентированный на бизнес, может запросто загрузить свое изображение за 1 рубль в темы 1, 2, 5, 10 рублей, просто чтобы увеличить экспозицию.

Так что мы не можем рассчитывать на название темы, мы должны сами определять, какая монета изображена на фото. Для сканирования сайта был написан простой сканер, основанный на библиотеке Python Beautiful Soup. Всего за несколько часов я получил более 50 000 фотографий. Не так много по стандартам машинного обучения, но определенно для начала. После того, как мы получили изображения, нам, к сожалению, приходится пересматривать их вручную, ища изображения, которые нам не нужны в нашем обучающем наборе, или изображения, которые нужно как-то отредактировать. . Например, кто-то мог загрузить фотографию своего кота.Нам не нужна кошка в нашем наборе данных. Сначала мы удаляем все изображения, которые нельзя разделить на голову / град.

madrugado.github.io — Кто я

Я являюсь старшим научным сотрудником лаборатории Huawei «Ноев ковчег», а также занимаюсь некоторыми исследовательскими проектами с Казанским федеральным университетом, моя область исследований — понимание естественного языка, поскольку NLU кажется невозможным без глубокого обучения, DL — это моя второстепенная область интересов. . Если вы студент и ищете научного руководителя, вы можете проверить мою обучающую страницу.

Я закончил Московский физико-технический институт по специальности «Компьютерные науки» в 2009 году. Там же я написал кандидатскую диссертацию, а в 2019 году защитил ее в Институте системного программирования РАН. Моя кандидатская диссертация и синопсис доступны здесь. (на русском). Краткая английская версия синопсиса опубликована в ACL в 2019 году.
Мои публикации можно найти здесь. Если вы хотите прочитать любую публикацию, которая указана, но не имеет ссылки, просто напишите мне по электронной почте.

Я работал на VK.com в качестве научного сотрудника по прикладным исследованиям, и у меня есть несколько статей, описывающих мою работу там.
Также я работал научным сотрудником в лаборатории нейронных систем и глубокого обучения Московского физико-технического института, где участвовал в исследованиях и разработке библиотеки DeepPavlov.

Имею большой опыт поиска информации:

  • Я улучшил службу поддержки VK.com, добавив рекомендации по часто задаваемым вопросам.
  • Я работал на Яндексе.Качество новостей (ранжирование и кластеризация).
  • Я запустил (как часть команды) Sputnik, поисковую систему, спонсируемую российским правительством.

У меня также есть опыт работы с компьютерным зрением и робототехникой:

  • Я разработал резюме для робота (см. Ниже) и некоторые аспекты помощника водителя Cognitive Technologies.
  • Для целей тестирования мы создали колесного робота, в котором я отвечал за управление движением (включая часть CV).

Мое короткое резюме доступно здесь.Полное резюме здесь.

Новости

  • [29.03.2020] ОТМЕНА Я буду проводить доклад по классификации текста с нулевым и малым количеством кадров на CodeFest в Новосибирске, Россия.
  • [31.10.2019] Я получил сертификат PhD Министерства высшего образования и науки Российской Федерации!
  • [30.11.2018] Моя новая публикация Medium о материалах ЕМНЛП в двух частях: первая и вторая
  • [19.01.2018] Вторая часть предыдущей статьи на Medium о НЛП в 2017 году.
  • [16.12.2017] Моя новая статья на Medium о НЛП в 2017 году.
  • [29.11.2017] Моя первая статья на Medium о диалоговых системах.
  • [24.09.2017] Мое первое выступление на радиостанции «Комсомольская правда». Запись доступна здесь.
  • [05.08.2017] Моя статья в РБК о широко освещенном в прессе Честном эксперименте по созданию языка (на русском).
  • [17.07.2017] Моя новая статья на Хабрахабре про вложения слов.
  • [02.06.2017] Мое выступление на Диалоге 2017 в рамках Дня технологий.
  • [31.05.2017] Мой доклад на Moscow Data Science Meetup.
  • [13.05.2017] Моя мастерская в СПбГУ в Петергофе.
  • [04.05.2017] Я буду лектором летней школы RuSSIR 2017.
  • [25.04.2017] Участвовал в панельной дискуссии на конференции MBLT.
  • [22.04.2017] Я буду молниеносно выступать в MLPrague.
  • [20.04.2017] Моя новая статья на Хабрахабр.ру про Керас.
  • [15.04.2017] Моя мастерская в Высшей школе экономики в Москве.
  • [12.04.2017] Я решил транслировать обновления моего репо с бумагами в Twitter. Так что вы можете подписаться там.
  • [08.04.2017] Моя мастерская в Нижнем Новгороде на Лобачевского Ю.
  • [01.04.2017] ОТМЕНА Предварительно буду заниматься репетиторством в Нижегородском государственном университете им. Лобачевского.
  • [03.03.2017] Я стал сертифицированным инструктором по глубокому обучению NVIDIA. Я объявлю о своих семинарах через несколько недель.
  • [22.02.2017] Мой новый пост на Хабрахабр.ру об истории обучения с подкреплением.
  • [19.02.2017] Я закончила репетиторство на DeepLearningCourse.ru, все материалы для этого курса можно найти здесь.
  • [29.12.2016] Мой новый пост на Хабрахабр.ру об истории ИИ.
  • [04.11.2016] Моя статья на NPlus1.ru о RNN.

Еще одна дорожная карта глубокого обучения

Александр Гончар

ПОЛНЫЕ КУРСЫ:

РУКОВОДСТВА / КНИГИ:

CNN

РНН + НЛП

ВЕРОЯТНОСТЬ

КЛАСТЕРИЗАЦИЯ

ОБУЧЕНИЕ ПО УСИЛЕНИЮ

ДРУГОЕ:

Теги: машинное обучение, углубление

Последние достижения в области машинного обучения

Рекомендации для чтения

Что это за страница? На этой странице слева показаны таблицы, извлеченные из документов arXiv.Он показывает извлеченные результаты с правой стороны, которые соответствуют таксономии в Papers With Code.

Какие цветные прямоугольники справа? Здесь показаны результаты, извлеченные из статьи и связанные с таблицами слева. Результат состоит из значения метрики, имени модели, имени набора данных и имени задачи.

Что означают цвета? Зеленый означает, что результат одобрен и показан на сайте. Желтый — результат того, что вы
добавили, но еще не сохранили.Синий — это результат ссылки, полученный из другой бумаги.

Откуда берутся предлагаемые результаты? У нас есть модель машинного обучения, работающая в фоновом режиме, которая дает рекомендации по статьям.

Откуда берутся ссылочные результаты? Если мы находим в таблице результаты со ссылками на другие статьи, мы показываем проанализированный справочный блок, который редакторы могут использовать для аннотирования, чтобы получить эти дополнительные результаты из других статей.

Рекомендации для редактора

Я впервые редактирую и боюсь ошибиться.Помощь! Не волнуйтесь! Если вы сделаете ошибки, мы можем исправить их: все версионировано! Так что просто сообщите нам на канале Slack, если вы что-то случайно удалили (и так далее) — это вообще не проблема, так что дерзайте!

Как добавить новый результат из таблицы? Щелкните ячейку в таблице слева, откуда берется результат. Затем выберите одно из 5 лучших предложений. Вы можете вручную отредактировать неправильные или отсутствующие поля. Затем выберите задачу, набор данных и название метрики из таксономии «Документы с кодом».Вы должны проверить, существует ли уже эталонный тест, чтобы предотвратить дублирование; если его не существует, вы можете создать новый набор данных. Например. ImageNet по классификации изображений уже существует с показателями Top 1 Accuracy и Top 5 Accuracy.

Каковы соглашения об именах моделей? Название модели должно быть простым, как указано в документе. Обратите внимание, что вы можете использовать круглые скобки для выделения деталей, например: BERT Large (12 слоев), FoveaBox (ResNeXt-101), EfficientNet-B7 (NoisyStudent).

Другие советы и рекомендации

  • Если для введенной пары набор данных / задача уже существует эталонный тест, вы увидите ссылку.
  • Если эталонный тест не существует, появится значок «новый», обозначающий новую таблицу лидеров.
  • Если вам повезет, Cmd + щелкните ячейку в таблице, чтобы автоматически получить первый результат.
  • При редактировании нескольких результатов из одной и той же таблицы вы можете нажать кнопку «Изменить все», чтобы скопировать текущее значение во все другие записи из этой таблицы.

Как добавить результаты, на которые есть ссылки? Если в таблице есть ссылки, вы можете использовать функцию синтаксического анализа ссылок, чтобы получить больше результатов из других документов. Во-первых, вам понадобится хотя бы одна запись в ячейке с результатами (пример см. На изображении ниже). Затем нажмите кнопку «Анализировать ссылки», чтобы связать ссылки с статьями в PapersWithCode и аннотировать результаты. Ниже вы можете увидеть пример.

Таблица сравнения извлечена из статьи Универсальная языковая модель «Тонкая настройка для классификации текста».
(Howard and Ruder, 2018) с проанализированными ссылками.

Как сохранить изменения? Когда вы будете довольны своим изменением, нажмите «Сохранить», и предложенные вами изменения станут зелеными!

Введение в алгоритмы машинного обучения и интеллектуального анализа данных Azure Александр Краковецкий Генеральный директор, DevRain Solutions PhD, Microsoft Regional

Презентация на тему: «Введение в алгоритмы машинного обучения и интеллектуального анализа данных Azure. Александр Краковецкий, генеральный директор DevRain Solutions, кандидат наук, региональный отдел Microsoft» — стенограмма презентации:

ins [data-ad-slot = «4502451947»] {display: none! important;}}
@media (max-width: 800px) {# place_14> ins: not ([data-ad-slot = «4502451947»]) {display: none! important;}}
@media (max-width: 800px) {# place_14 {width: 250px;}}
@media (max-width: 500 пикселей) {# place_14 {width: 120px;}}
]]>

1

Введение в алгоритмы машинного обучения и интеллектуального анализа данных Azure Александр Краковецкий Генеральный директор, DevRain Solutions PhD, региональный директор Microsoft @msugvnua, [email protected]

2

Уровни данных

3

Интеллектуальный анализ данных  Вычислительный процесс обнаружения закономерностей в больших наборах данных с использованием методов на стыке систем искусственного интеллекта, машинного обучения, статистики и баз данных.

4

Процесс интеллектуального анализа данных 1.Выбор 2. Предварительная обработка 3. Трансформация 4. Анализ данных 5. Интерпретация / оценка

5

Работа с данными  Различные источники: базы данных, Интернет, локальные файлы, семантическая сеть, хранилища и т. Д.  Различные форматы: текст, HTML, PDF, Word, JSON / XML.  Анализ источников на основе HTML.  Очистка, фильтрация, сортировка, сохранение данных.

6

Задачи интеллектуального анализа данных 1.Обнаружение аномалий 2. Изучение правил ассоциации (Моделирование зависимостей) 3. Кластеризация 4. Классификация 5. Регрессия 6. Резюме 7. НЛП

7

Машинное обучение  Машинное обучение — это наука о том, как заставить компьютеры работать без явного программирования.

8

Анализ данных SQL Server Фильтрация спама Понимание жестов в Microsoft Kinect Машинное обучение Azure Использование интеллектуального анализа данных в поисковых системах Bing Maps начали использовать машинное обучение для оценки трафика Распознавание голоса Microsoft и машинное обучение 1999201220082004201420102005 Microsoft и машинное обучение

9

2015 Skype-переводчик  http: // www.skype.com/en/translator- preview / http://www.skype.com/en/translator- preview /  https://www.youtube.com/watch?v=bx3 TuEeNpnc https://www.youtube .com / watch? v = bx3 TuEeNpnc

10

Алгоритмы машинного обучения. дерево Один против всех + усиленное дерево решений Усиленная регрессия дерева решений Нейронная сеть Двухклассовая нейронная сеть Многоклассовая нейронная сеть Регрессия нейронной сети Случайный лес Двухклассовый лес решений Многоклассный лес решений Регрессия леса решений

11

Портал Azure Команда Azure Ops ML Studio Аналитик данных HDInsightAzure StorageDesktop Data Портал Azure и служба ML API PowerBI / DashboardsМобильные приложенияWeb Apps ML API service Developer

12

Демонстрация  Работа с Azure ML Studio  Создание базового NER  Работа с галереей

13

Ссылки  http: // blogs.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *