Есть ли искусственный интеллект: Мифы и заблуждения об искусственном интеллекте
Мифы и заблуждения об искусственном интеллекте
В этом году компания «Яндекс» запустила голосового помощника «Алиса». Новый сервис позволяет пользователю прослушивать новости и погоду, получать ответы на вопросы и просто общаться с ботом. «Алиса» иногда дерзит, порой кажется почти разумной и по-человечески саркастичной, но часто не может разобраться, о чём её спрашивают, и садится в лужу.
Всё это породило не только волну шуток, но и новый виток дискуссий о развитии искусственного интеллекта. Новости о том, чего добились умные алгоритмы, сегодня приходят чуть ли не каждый день, а машинное обучение называют одним из самых перспективных направлений, которому можно себя посвятить.
Чтобы прояснить главные вопросы об искусственном интеллекте, мы побеседовали с Сергеем Марковым, специалистом по искусственному интеллекту и методам машинного обучения, автором одной из самых сильных отечественных шахматных программ SmarThink и создателем проекта «XXII век».
Сергей Марков,
специалист по искусственному интеллекту
так что же такое «искусственный интеллект»?
Понятию «искусственный интеллект» в какой-то мере не повезло. Возникшее изначально в научной среде, оно со временем проникло в фантастическую литературу, а через неё — в поп-культуру, где претерпело целый ряд изменений, обросло множеством интерпретаций и в конце-концов было совершенно мистифицировано.
Именно поэтому мы часто слышим от неспециалистов примерно такие заявления: «ИИ не существует», «ИИ невозможно создать». Непонимание сути исследований, ведущихся в сфере ИИ, легко приводит людей и к другим крайностям — например, современным системам ИИ приписывают наличие сознания, свободной воли и секретных мотивов.
Давайте попробуем отделить мух от котлет.
В науке искусственным интеллектом называют системы, предназначенные для решения интеллектуальных задач.
В свою очередь, интеллектуальная задача — это задача, которую люди решают при помощи собственного интеллекта. Заметим, что в данном случае специалисты сознательно уходят от определения понятия «интеллект», поскольку до появления систем ИИ единственным примером интеллекта был интеллект человеческий, и определить понятие интеллекта на основе единственного примера — то же самое, что пытаться провести прямую через единственную точку. Таких прямых может оказаться сколько угодно много, а значит, спор о понятии интеллекта можно было бы вести столетиями.
Персональный помощник с голосом Скарлетт Йохансон из фильма «Она» достиг сингулярности и стал непостижим для своего «хозяина». Но это пока что только фантастика (или метафора того, как люди отдаляются друг от друга).
(источник: tnp-production.s3.amazonaws.com)
«сильный» и «слабый» искусственный интеллект
Системы ИИ делятся на две большие группы.
Прикладной искусственный интеллект (также используют термин «слабый ИИ» или «узкий ИИ», в английской традиции — weak/applied/narrow AI) — это ИИ, предназначенный для решения какой-либо одной интеллектуальной задачи или их небольшого множества. К этому классу относятся системы для игры в шахматы, го, распознавания образов, речи, принятия решения о выдаче или невыдаче банковского кредита и так далее.
В противоположность прикладному ИИ вводят понятие универсального искусственного интеллекта (также «сильный ИИ», по-английски — strong AI/Artificial General Intelligence) — то есть, гипотетического (пока что) ИИ, способного решать любые интеллектуальные задачи.
Часто люди, не зная терминологии, отождествляют ИИ с сильным ИИ, из-за этого и возникают суждения в духе «ИИ не существует».
Сильного ИИ действительно пока не существует. Практически все успехи, которые мы наблюдаем в последнее десятилетие в области ИИ, — это успехи прикладных систем. Эти успехи нельзя недооценивать, так как прикладные системы в ряде случаев способны решать интеллектуальные задачи лучше, чем это делает универсальный человеческий интеллект.
Я думаю, вы заметили, что понятие ИИ — довольно широкое. Скажем, устный счёт — это тоже интеллектуальная задача, и это значит, что любая счётная машина будет считаться системой ИИ. А как насчёт счётов? Абака? Антикитерского механизма? Действительно, всё это формально хотя и примитивные, но системы ИИ. Однако обычно, называя какую-то систему системой ИИ, мы тем самым подчёркиваем сложность решаемой этой системой задачи.
Совершенно очевидно, что разделение интеллектуальных задач на простые и сложные — весьма искусственное, и наши представления о сложности тех или иных задач постепенно меняются. Механическая счётная машина была чудом техники в XVII веке, но сегодня людей, с детства сталкивающихся с куда более сложными механизмами, она уже не способна впечатлить. Когда игра машин в го или автомобильные автопилоты уже перестанут удивлять публику, наверняка найдутся люди, которые будут морщиться из-за того, что кто-то будет относить такие системы к ИИ.
Абак — старинное счётное приспособление и прапрадед современных электронных устройств.
(источник: upload.wikimedia.org)
«Роботы-отличники»: о способностях ИИ к обучению
Ещё одно забавное заблуждение — всенепременное наличие у систем ИИ способности к самообучению. С одной стороны, это совсем не обязательное свойство систем ИИ: есть множество удивительных систем, не способных самообучаться, но, тем не менее, решающих многие задачи лучше человеческого мозга. С другой стороны, некоторые люди просто не знают того, что самообучение — свойство, которые многие системы ИИ обрели ещё более полусотни лет назад.
Когда в 1999 году я писал свою первую шахматную программу, самообучение уже было совершенно общим местом в этой области — программы умели запоминать опасные позиции, подстраивать под себя дебютные варианты, регулировать стиль игры, подстраиваясь под соперника. Конечно, тем программам было ещё очень далеко до Alpha Zero. Тем не менее, даже системы, обучающиеся поведению на основе взаимодействия с другими системами в ходе экспериментов по так называемому «обучению с подкреплением», уже существовали. Однако по необъяснимой причине некоторые люди до сих пор думают, что способность к самообучению — это прерогатива человеческого интеллекта.
Машинное обучение, целая научная дисциплина, занимается процессами обучения машин решению тех или иных задач.
Существует два больших полюса машинного обучения — обучение с учителем и обучение без учителя.
При обучении с учителем у машины уже есть некоторое количество условно правильных решений для некоторого набора случаев. Задача обучения в таком случае заключается в том, чтобы научить машину на основе имеющихся примеров принимать правильные решения в других, неизвестных ситуациях.
Другая крайность — обучение без учителя. То есть машину ставят в ситуацию, когда правильные решения неизвестны, имеются только данные в сыром, неразмеченном виде. Оказывается, и в таких случаях можно добиться некоторого успеха. Например, можно научить машину выявлению семантических отношений между словами языка на основе анализа очень большого набора текстов.
Одна из разновидностей обучения с учителем — это обучение с подкреплением (reinforcement learning). Идея заключается в том, что система ИИ выступает в роли агента, помещённого в некоторую модельную среду, в которой она может взаимодействовать с другими агентами, например, с собственными копиями, и получать от среды некоторую обратную связь через функцию вознаграждения. Например, шахматная программа, которая играет сама с собой, постепенно подстраивая свои параметры и тем самым постепенно усиливая собственную игру.
Обучение с подкреплением — довольно широкая область, в ней применяют множество интересных методов, начиная от эволюционных алгоритмов и заканчивая байесовской оптимизацией. Последние достижения в области ИИ для игр как раз связаны с усилением ИИ в ходе обучения с подкреплением.
Я не отношусь к числу ИИ-алармистов, и в этом смысле я отнюдь не одинок. Например, создатель стэнфордского курса по машинному обучению Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса.
Действительно, в будущем вполне вероятно, что люди колонизируют Марс. Также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас? Согласны с Ыном и Ян ЛеКун — создатель свёрточных нейронный сетей, и его шеф Марк Цукерберг, и Йошуа Беньо — человек, во многом благодаря исследованиям которого современные нейронные сети способны решать сложные задачи в области обработки текстов.
Чтобы изложить мои взгляды на эту проблему, потребуется, вероятно, несколько часов, поэтому остановлюсь только на основных тезисах.
1. НЕЛЬЗЯ ОГРАНИЧИВАТЬ РАЗВИТИЕ ИИ
Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, при этом игнорируя риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса».
150 лет назад при всём желании человечество не могло нанести невосполнимого урона ни биосфере, ни себе как виду. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ядерных держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков.
Наша технологическая мощь растёт куда быстрее, чем способность человеческого интеллекта эту мощь контролировать.
Если на смену человеческому интеллекту с его предрассудками, агрессией, заблуждениями и ограниченностью не придёт система, способная принимать более взвешенные решения (будь то ИИ или, что я считаю более вероятным, технологически улучшенный и объединённый с машинами в единую систему человеческий интеллект), нас может ждать глобальная катастрофа.
«Скайнет» или «Красная королева» — менее вероятные враги, чем человеческие разногласия и опрометчивые решения.
(источник: gagadget.com)
2. создание сверхинтеллекта принципиально невозможно
Существует идея о том, что ИИ будущего всенепременно будет сверхинтеллектом, превосходящим людей даже сильнее, чем люди превосходят муравьёв. Боюсь в данном случае разочаровать и технологических оптимистов — наша Вселенная содержит целый ряд фундаментальных физических ограничений, которые, по всей видимости, сделают создание сверхинтеллекта невозможным.
Например, скорость передачи сигнала ограничена скоростью света, а на планковских масштабах появляется неопределённость Гейзенберга. Отсюда вытекает первый фундаментальный предел — предел Бремерманна, вводящий ограничения на максимальную скорость вычислений для автономной системы заданной массы m.
Другой предел связан с принципом Ландауэра, в соответствии с которым существует минимальное количество теплоты, выделяемое при обработке 1 бита информации. Слишком быстрые вычисления вызовут недопустимый разогрев и разрушение системы. В действительности, современные процессоры от лимита Ландауэра отделяет менее чем тысячекратное отставание. Казалось бы, 1000 — это довольно много, однако ещё одна проблема заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME. Это означает, что время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ускорение системы в несколько раз даёт лишь константный прирост «интеллекта».
В общем, есть очень серьёзные основания полагать, что сверхинтеллектуального сильного ИИ не получится, хотя, конечно, уровень человеческого интеллекта вполне может быть превзойдён. Насколько это опасно? Скорее всего, не очень.
Представьте себе, что вы внезапно начали думать в 100 раз быстрее остальных людей. Значит ли это, что вы легко будете способны уговорить любого прохожего отдать вам свой кошелёк?
3. мы беспокоимся совсем не о том
К сожалению, в результате спекуляций алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности ускользают из виду.
Любая достаточно сложная технология, претендующая на то, чтобы занять важное место в нашем технологическом ландшафте, безусловно приносит с собой специфические риски. Множество жизней было погублено паровыми машинами — на производстве, на транспорте и так далее — прежде чем были выработаны эффективные правила и меры по обеспечению безопасности.
Если говорить о прогрессе в области прикладного ИИ, можно обратить внимание на связанную с ним проблему так называемого «Цифрового тайного суда». Всё больше и больше прикладных систем ИИ принимает решения по вопросам, затрагивающим жизнь и здоровье людей. Сюда относятся и медицинские диагностические системы, и, например, системы, принимающие в банках решения о выдаче или невыдаче кредита клиенту.
В то же время структура используемых моделей, наборы используемых факторов и другие детали процедуры принятия решения скрыты коммерческой тайной от человека, чья судьба находится на кону.
Используемые модели могут основывать свои решения на мнениях учителей-экспертов, допускавших систематические ошибки или имевших те или иные предрассудки — расовые, гендерные.
ИИ, обученный на решениях таких экспертов, будет добросовестно воспроизводить эти предрассудки в своих решениях. В конце концов эти модели могут содержать в себе специфические дефекты.
Этими проблемами сейчас мало кто занимается, поскольку, конечно, SkyNet, развязывающий ядерную войну, это, безусловно, куда более зрелищно.
После суток обучения в Твиттере безобидный робот Тау стал грубияном и расистом.
(источник: images1.popmeh.ru)
С одной стороны, нейронные сети — это одна из самых старинных моделей, применяющихся для создания систем ИИ. Появившиеся изначально в результате применения бионического подхода, они довольно быстро убежали от своих биологических прототипов. Исключением тут являются только импульсные нейронные сети (впрочем, пока не нашедшие широкого применения в индустрии).
Прогресс последних десятилетий связан с развитием технологий глубокого обучения — подхода, при котором нейронные сети собирают из большого количество слоёв, каждый из которых построен на основе определённых регулярных паттернов.
Это отдалённо напоминает конструктор Лего, в котором вы собираете большую нейронную сеть из множества небольших типовых кирпичиков.
Помимо создания новых нейросетевых моделей важный прогресс был также достигнут в области технологий обучения. Сегодня нейронные сети учат уже не при помощи центральных процессоров компьютеров, а с использованием специализированных процессоров, способных быстро производить матричные и тензорные вычисления. Наиболее распространённый на сегодняшний день вид таких устройств — видеокарты. Впрочем, активно ведётся разработка ещё более специализированных устройств для обучения нейросетей.
В целом, безусловно, нейронные сети на сегодняшний день, — это одна из основных технологий в области машинного обучения, которой мы обязаны решению многих задач, ранее решавшихся неудовлетворительно. С другой стороны, конечно, нужно понимать, что нейронные сети не являются панацеей. Для некоторых задач они — далеко не самый эффективный инструмент.
А вот с созданием психоделических картинок нейросеть справляется отлично.
(источник: hsto.org)
Всё познаётся в сравнении. На фоне технологий 2000-го года нынешние достижения выглядят настоящим чудом. Всегда найдутся люди, любящие побрюзжать. 5 лет назад они вовсю трындели о том, что машины никогда не выиграют у людей в го (ну или, по крайней мере, выиграют очень нескоро). Говорили о том, что машина никогда не сможет нарисовать с нуля картину, в то время как сегодня люди практически неспособны отличать картины, созданные машинами, от картин неизвестных им художников. В конце прошлого года машины научились синтезировать речь, практически неотличимую от человеческой, а в последние годы от музыки, создаваемой машинами, не вянут уши.
Посмотрим, что будет завтра. Я смотрю на эти области применения ИИ с большим оптимизмом.
Я бы посоветовал постараться на хорошем уровне освоить один из популярных нейросетевых фреймворков и один из популярных в области машинного обучения языков программирования (наиболее популярна на сегодняшний день связка TensorFlow + Python).
Овладев этими инструментами и имея в идеале крепкую базу в области математической статистики и теории вероятностей, следует направить свои усилия в ту сферу, которая будет наиболее интересна лично вам.
Интерес к предмету работы — один из самых важных ваших помощников.
Потребность в специалистах по машинному обучению существует в самых разных областях — в медицине, в банковском деле, в науке, на производстве, поэтому сегодня хорошему специалисту предоставлен как никогда широкий выбор. Потенциальные преимущества любой из этих отраслей мне представляются несущественными по сравнению с тем, что работа будет приносить вам удовольствие.
Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Можно ли создать искусственный разум? / Хабр
Человечество веками грезило об искусственном разуме. Кажется, еще немного, и заветная цель будет достигнута, однако стоит спросить себя: возможно ли решение данной задачи в принципе? Что такое искусственный разум, долженствующий окончательно уравнять человека с Богом?
Позволю высказать собственное – надеюсь, отличное от расхожего, – мнение.
Как правило, искусственный разум отождествляется с человеческим разумом, то есть речь идет о создании искусственного человека. В таком случае неплохо понимать, что такое естественный человек, которого предлагается производить искусственно.
Что же такое человек – самый обычный, так сказать, натуральный?
Он существует на двух уровнях, несомненных для любого (как научного, так и обыденно-практического) восприятия:
- на уровне материи,
- на уровне разума, который и предполагается искусственно воспроизвести. Заключенный в черепную коробку мозг вполне материален, однако разум – это нечто иное, качественно отличное от материи. С этим трудно поспорить.
Так как задача создания искусственного разума носит информационный характер, оба уровня человеческого существования правильно объявить информационными системами, в такой плоскости и рассматривать задачу. Первая информационная система – это окружающий нас материальный мир, вторая информационная система – человеческий разум. Следует сразу заметить, что названные системы между собой никак не соотносятся. А почему они должны соотноситься? Какое может быть соответствие между материальным носителем и записанной на него информацией? Правильно, никакого.
При познании окружающего мира человек – его познающее «я» – находится вовне познаваемого, в другой информационной системе. Познавать можно что-то исключительно внешнее, а не внутреннее, вы не находите? Попробуйте-ка отследить движение нейронов в своем мозгу при попытке отследить движение нейронов в своем мозгу при попытке отследить движение нейронов в своем мозгу … и так далее до бесконечности. В чужом мозгу, то есть во внешней по отношению к собственному разуму области, такое вполне представимо, но только не в собственном мозгу с собственными нейронами, благодаря которым возможно мышление. Поэтому я и говорю, что познание – внешняя функция: применительно к иной информационной системе оно в принципе возможно, а применительно к собственной информационной системе (той, в которой находится познающее «я» субъекта) – ни в коем случае не возможно, попросту недопустимо, за этой гранью понятие разума теряет смысл.
Попытаюсь проиллюстрировать утверждение на наглядном примере.
Предположим, на нашу планету высадились зеленые человечки, вполне себе миролюбивые и общительные. Сбежавшееся человечество задает им разные вопросы, а зеленые человечки разумно и подробно отвечают, на радость собравшимся. Являются ли космические гости разумными существами? Без спору, являются! Каким же горьким оказывается разочарование толпы, когда выясняется, что общительные зеленые человечки – вовсе не разумные существа, а биороботы, действующие на основании заложенной в них программы, а то и непосредственно в режиме реального времени, по прямым указаниям непосредственных хозяев. Кто в таком случае разумен? Что за вопрос – разумеется, те ребята с Проксимы Центавра, откуда к зеленым биороботам идет управляющий сигнал! Допустим, допустим… А что если сигнал с Проксимы Центавра посылают другие, более совершенные, управляющие механические устройства? Такое можно вообразить? Отчего нет?! Кто в таком случае является разумными существами? Те, кто изготовил не только зеленых человечков, но и управляющие передатчики с Проксимы Центавра, разумеется. Ну и так далее, если вы поняли примененную логику… Как видите, вопрос о разумности космических гостей напрямую зависит от нашей осведомленности в этом вопросе – точнее, от того, что мы считаем «крайней» информационной системой:
- считаем «крайним» мозг зеленых человечков – значит, что зеленые человечки являются разумными существами;
- выясняем, что «мозг» зеленых человечков представляет собой устройство, воспринимающее сигналы с Проксимы Центавра – о да, да тут полная ясность, настоящие разумные существа находятся на Проксиме Центавра;
- ах, на Проксиме Центавра только управляющие передатчики, вы говорите? – ну тогда разумные существа находятся где-то подале, изготовил же кто-то эти управляющие передатчики?
Отыщите подходящую информационную систему, внешнюю в отношении рассматриваемой, и понятие разума немедленно туда переместится. Не слишком ли неопределенно для понятия, которое надлежит воплотить в жизнь в качестве действующего механизма?
Вы все-таки полагаете, что человеческий разум существует? На основании твердого убеждения и личного самоощущения? А приведите-ка доказательства того, что вы сами не зеленый человечек, то есть не управляемая кем-то извне биологическая машина? Какие у вас основания полагать себя разумным существом, собственно? Самоощущение разумности доказательством не является: вполне можно допустить, что действительный создатель запрограммировал вас с подобным самоощущением именно с той целью, чтобы вы ни о чем не догадались. Ситуация, многократно обыгранная в кинематографе: робот, считающий себя человеком. Одно лишь предположение о внешней информационной системе, и от вашей разумности следа не остается!
Что является разумом в таком случае? Тривиальная способность реагировать на сигналы. Человек определенным образом реагирует на сигналы, следовательно, он является разумным. В такой же степени разумным является утюг: я втыкаю штепсель в розетку, а утюг, представьте себе, начинает нагреваться – разве не в этом проявляется высокоорганизованный разум? Ах, утюг устроен таким образом, чтобы нагреваться при втыкании штепселя в розетку?! Так ведь и человек устроен определенным образом: если он дотронется до горячего утюга, то с криком отдернет руку – с этой стороны его реакция так же предсказуема, как и реакция утюга при включении. А то, что устройство утюга известно, а устройство человеческого мозга – пока не очень, не доказывает качественного отличия одних реакций от других, то есть не доказывает превосходство человека над утюгом. Утюг – произведенный человеком механизм, так ведь и человек может оказаться кем-то произведенным механизмом, чем таким принципиальным они тогда друг от друга отличаются?
Поскольку человечество непременно желает произвести искусственного человека, проанализируем, чем искусственный разум может отличаться от натурального, человеческого?
1. Человекоподобие.
В кинематографе роботы обычно имеют формы, приближенные к человеческим, но при создании искусственного разума это не обязательно. Пусть утюг, лишь бы утюг мыслящий – для решения нашей задачи достаточно.
2. Сложность.
Устройство человека несомненно сложней устройства утюга. Хотя утюг – не самое сложное из изобретений человечества: некоторые из современных машин по уровню сложности сопоставимы с человеческим мозгом, хотя бы в том смысле, что находятся за гранью понимания рядового обывателя.
В целом, принимается.
3. Способность к саморазвитию.
Вполне программируемая способность: достаточно учитывать в алгоритмах все предшествующие сигналы и собственные реакции – другими словами, основываться на прошлом опыте.
4. Непредсказуемость.
Человек в силу сложности своего устройства более непредсказуем, чем утюг. Более – потому что утюг тоже не всегда предсказуем: к примеру, после втыкания штепселя в розетку он может и не включиться (по причине поломки), а может треснуть или загореться (по причине более серьезной неисправности). Конечно, перечень возможных реакций утюга на включение в розетку ограничен, но и перечень человеческих реакций тоже: если вам наступили на ногу, скорей всего, виновник извинится либо промолчит – крайне маловероятно, что он улыбнется вам двести пятьдесят раз, затем помашет ушами и взмоет в поднебесье.
Впрочем, сделать искусственный разум по-человечески непредсказуемым несложно: нужно лишь вставить в алгоритм генератор случайных чисел.
5. Упрощая или усложняя?
Материал, из которого создан искусственный разум, может быть любым, не обязательно биологическим. Но может быть и биологическим. В этом случае возникает побочный вопрос: насколько деятельным должно быть участие в биологическом, по сути природном, процессе строителя искусственного разума? Должен ученый позаимствовать у природы живую клетку и вырастить искусственный разум из нее, или для этого, чтобы разум считался в полной мере искусственным, необходимо модифицировать взятую у природы живую клетку, или же ученый может, для создания искусственного интеллекта, пользоваться готовыми клеточными блоками?
Допустим, создатель искусственного разума, действуя по примеру Франкенштейна, находит пару неостывших трупов, у первого трупа ампутирует левое полушарие, у второго трупа – правое, затем соединяет полушария и получает функционирующий мозг? Этот мозг, составленный из полушарий разных людей, обладает искусственным или естественным интеллектом? Если естественным, где граница между искусственным и естественным? А если бы ученый взял у мозга единственную клетку и из нее вырастил цельный мозг, был бы выращенный разум искусственным и естественным?.. Если же ответ отрицательный, если соединение левого и правого полушарий дает искусственный мозг… тогда вообще черт знает что получается, знаете ли. Получается, достаточно изъять из натурального мозга одну клетку, как мозг становится искусственным. То есть дело не в методах, которыми ученый пользуется, а в результате:
- при изменении разума в результате действий ученого (по сути, в результате воздействия внешних факторов, хотя бы минимальных) – разум искусственный;
- разум в первоначальном состоянии – естественный.
Зачем в таком случае хирургическое вмешательство? Достаточно внешних раздражителей, которые позволяют изменять разум в желаемом направлении! Я намекаю на средства массовой информации, которые манипулируют моральными и этическими представлениями человечества без всякого скальпеля. С этой точки зрения прилипший к зомбоящику телезритель обладает куда как искусственным разумом – продуктом высоких технологий. Такой телезритель есть биоробот навроде упомянутых выше зеленых человечков. Строго говоря, любое межчеловеческое общение приводит к изменению интеллекта общающихся сторон – правда, в отличие от ситуации с зомбоящиком, двухстороннему и в этом смысле равноправному.
Что я хочу сказать? То, что при попытке создать мыслящего робота следует определиться с методами достижения цели: хотим мы сотворить из простого сложное или из сложного простое. Если для создания искусственного разума достаточно упростить или остановить в развитии имеющийся у человека природный разум, задача создания искусственного разума решена давно и надежно.
6. Душа.
Часто в разговорах об искусственном разуме апеллируют к душе: дескать, вы попробуйте создать думающую машину с человеческой душой, вот тогда… Ну, это смотря что понимать под душой: если некоторые психофизические особенности (психо – в смысле реакции на внешние раздражители, физические – в смысле физического устройства), тогда техника обладает всеми перечисленными качествами. Устройство у каждого прибора свое, практически всегда с индивидуальными особенностями: с этой стороны типовые приборы ничем не отличаются от людей, скроенных по единому лекалу, вместе с тем сугубо индивидуальных. Что же касается психо-особенностей, то есть реакции на внешние раздражители… Вы только мне не рассказывайте, что приборы не обладают психофизическими особенностями. Лет двадцать назад у меня был самодельный компьютер, подключаемый к телевизору, так этот урод частенько не мог прочитать дискету (тогда были пятидюймовые). Садишься к такому компьютеру и никогда не знаешь, удастся тебе поиграть в тетрис или не удастся. Короче говоря, этот электронный ублюдок работал по настроению. Потребовались десятилетия корпоративной дрессуры, чтобы его потомки, мало похожие на самодельного пращура, научились функционировать стабильно. Хотя норов у технических устройств, даже новейших, время от времени все равно проявляется… А вы говорите, у техники нет психофизических особенностей!
7. Полная человеческая копия.
Приверженцы искусственного разума могут потребовать полного копирования человека, то есть человека во плоти.
Спросим их: а что, разве люди не самовоспроизводятся, то есть не копируются другими людьми? Что значит «искусственно»? Обычно под этим словом понимается: созданное человеком. Однако младенцы производятся не на небесах, а именно людьми, хотя и в предписанном Богом порядке: в этом смысле естественный ребенок будет отличаться от искусственного не больше, чем деталь, произведенная на конвейере с соблюдением правил безопасности, от детали, произведенной вручную без соблюдения правил безопасности. Допустим, слесарь постарался и вручную слепил не хуже. А оно того стоило, если результат неотличим от конвейерного?! Совсем по профессору Преображенскому, не так ли? «Объясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно. Ведь родила же в Холмогорах мадам Ломоносова этого своего знаменитого. Доктор, человечество само заботится об этом и в эволюционном порядке каждый год упорно, выделяя из массы всякой мрази, создаёт десятками выдающихся гениев, украшающих земной шар».
К слову, человеческий клон обладает искусственным или естественным разумом?
Нет, как хотите, а в самом понятии «искусственный разум» кроется противоречие. Когда мы говорим «разум», то подразумеваем собственный человеческий разум, который в силу нашей природной сущности является крайней лично для нас информационной системой. Мы не может узнать устройство собственного головного мозга: можем – устройство мозга другого человека, хотя данное знание не будет для нас абсолютно убедительным. Помню, в детстве я очень удивился, когда мне сделали рентген вывихнутого запястья, и стало видно, что под кожей находятся кости. Я-то был уверен, что устройство моей руки не как у всех… Искусственный разум потому и разум, что извне ничего нет: никакой определяющей его внешней информационной системы. С другой стороны, «искусственный» подразумевает – нами же и сотворенный. Однако, как можно что-то сотворить, не понимая его устройства? Данный способ совпадает с упомянутым выше естественным деторождением. Возможно, конечно, сконструировать искусственный разум из отдельных блоков, устройство которых нам неизвестно. Это аналогично соединению в единый мозг полушарий, ампутированных у разных людей – данный вариант я рассматривал. А собрать искусственный разум из простейших частей и при этом не понимать порядка сборки… уверяю, сие никак невозможно. Или придется вывести полученную конструкцию из собственного информационного поля. К примеру, отец заводит ключиком механического медвежонка, который представляется его ребенку живым. А сам отец игрушечного медвежонка живым не воспринимает: обладая познаниями взрослого человека, попросту не может — если, конечно, не помолодеет лет на тридцать. Нет, вариант с созданием искусственного человека и последующим собственным оглуплением не проходит.
Что получаем в итоге? А вот что: разговоры о создании искусственного разума не корректны. Но если подразумевать под мыслящим искусственным существом человекоподобную машину со сложными и не вполне предсказуемыми реакциями, напоминающими человеческие, тогда, конечно, искусственный интеллект может быть создан. Правда, подобные устройства не вполне прагматичны: лучшую перспективу имеют специализированные механизмы, предназначенные для глажения одежды, перевозки людей, передачи информации и т.п. Мыслящие утюги, короче.
Интернет: Интернет и СМИ: Lenta.ru
Искусственный интеллект окружил человека настолько плотно, что стал вопросом мирового значения. Внедрение технологий ИИ во все сферы жизни в ближайшие 20 лет, по прогнозу глобального института McKinsey, создаст новую реальность. Умная автоматизация может быть сопоставима с масштабами последней промышленной революции, что одновременно вызывает и воодушевление, и опасение за будущее человечества. Неудивительно, что исследователи по всему миру пытаются понять, как отрегулировать сферу искусственного интеллекта так, чтобы он не навредил людям. Возможно ли это? И что об этом думают в России? «Лента.ру» разобралась, какие препятствия могут встретиться на пути регулирования ИИ.
Стремительное развитие искусственного интеллекта будоражит умы исследователей по всему миру. В 2019 году Совет Европы учредил комитет экспертов по искусственному интеллекту (Ad hoc Committee on Artificial Intelligence — CAHAI). Решение создать подобный орган обусловлено крайне высокими темпами развития машинного обучения, в связи с чем возникла необходимость правового регулирования этих процессов. Члены организации считают, что отсутствие правовой подоплеки может грозить людям дискриминацией, посягательством на личную жизнь и манипулированием со стороны различных онлайн-платформ.
«Искусственный интеллект произведет революцию в нашей жизни. В таких областях, как медицина, связь и транспорт, открываются все новые возможности. Но последствия его продвижения для демократии, прав человека и верховенства закона все еще неясны. Как предупреждал ныне покойный Стивен Хокинг, риски нерегулируемого искусственного интеллекта беспрецедентны», — сказал генеральный секретарь Совета Европы Ягланд Тербьерн, объясняя необходимость создания спецгруппы по ИИ оценкой его угроз и возможностей для прав человека.
Уже в начале июля 2020 года на площадке CAHAI состоялась конференция, в которой участвовали более 250 представителей из 47 государств-членов Совета Европы. Кроме того, на мероприятии присутствовали делегаты из других стран, включая Ватикан, Израиль, Мексику, США и Японию. Россию на заседании представили сразу два спикера — советник по международному сотрудничеству и координации Центра компетенций НТИ «Искусственный интеллект» МФТИ Андрей Кулешов и вице-президент «Сколтеха» Максим Федоров. В марте профессор Федоров был среди десяти человек, которых пригласили в экспертную группу ЮНЕСКО по искусственному интеллекту. Эта группа призвана выработать рекомендации этических принципов разработки и использования ИИ.
Нас признали и не смогли не заметить. Количество участников рабочей группы составит чуть больше десяти человек. Мое участие в этой группе — в том числе заслуга и наших дипломатов, и нашего экспертного сообщества. Это тот самый пример гражданского общества, когда и государство, и экспертное сообщество идут заодно. Но и без признания международных экспертов у меня большие сомнения, чтобы нас туда бы позвали
Профессор Максим Федоров
Для экспертного сообщества приглашение российских специалистов для работы над регулированием сферы ИИ сюрпризом не стало. Россия играет активную роль в формировании международно-правовых рамок регулирования искусственного интеллекта, говорит Кулешов. У наших ученых есть опыт, наработки и ресурсы для того, чтобы претендовать на лидирующие позиции в сфере разработок, основанных на искусственном интеллекте. Сейчас в стране прорастают «совершенно потрясающие идеи», каждая из которых может изменить мир, считает Кулешов.
«У нас уже удобно развивать ИИ, можно сделать еще удобнее. И в мире, конечно, вклад России в ИИ важен», — заявил он в разговоре с «Лентой.ру».
Схожей позиции придерживается и вице-президент «Сколтеха» Федоров. По его мнению, сегодня у России есть все шансы составить конкуренцию доминирующим США и Китаю на рынке интеллектуальных систем. Многие выходцы из России давно трудятся в крупнейших международных компаниях наравне с иностранными разработчиками. Ученый посетовал, что из-за стечения обстоятельств российским специалистам приходится покидать родину, однако в некоторых регионах ситуация обнадеживающая — например, в столице.
«Москва сейчас — это второй Сан-Франциско в плане количества, качества и плотности разработок в сфере ИИ. Поэтому многие специалисты не уезжают из Москвы. Есть интересная работа, интересные задачи и развитое экспертное сообщество», — оценил обстановку российский ученый.
Фото: Владимир Гердо / ТАСС
Федоров считает, что Россия может занять достойное место в мире высоких технологий, но для этого необходимо придерживаться правильной стратегии — не стараться догнать Запад и Восток, а обогнать их, синтезируя различные подходы.
«У России есть много уникальных задач для себя: управление территорией, развитие ресурсодобывающей промышленности и производства непрерывного цикла. Если нам удастся решить эти задачи, то позже мы сможем масштабировать свои технологические решения на весь мир, и российские технологии будут покупать за большие деньги», — обрисовал ситуацию профессор.
На недавнем заседании комитета Совета Европы вице-президент «Сколтеха» выделил одну из основных проблем развития искусственного интеллекта — необоснованное придание ИИ статуса субъектности. Ученый имеет в виду, что технологии сами по себе «этически нейтральны», поэтому не могут причинить реальное зло, в отличие от человека, который управляет интеллектуальными системами.
Мы надуваем мыльный пузырь важности ИИ и напрасно придаем этому набору технологий свойства субъекта. Во многом это делается журналистами, людьми без технического образования. Они обсуждают какую-то сущность, которой не существует. В массовом сознании формируется мем про ИИ, который наделяется чертами терминатора, с одной стороны, и чертами сверхсущества с благими намерениями — с другой. Все это сказки
Профессор Максим Федоров
По словам эксперта, при регулировании разработки и внедрения ИИ необходимо сохранять человекоцентричный подход во всех документах, а также избегать «очеловечивания». В противном случае появится асимметрия ответственности — как экономической, так и социальной. Другими словами, в любой непонятной ситуации человек сможет переложить вину на бездушный компьютер. Из-за этого создатель техники окажется невиновным и получит прибыль, а жертве придется разбираться с нанесенным ущербом самостоятельно.
Федоров считает такую ситуацию, когда риски ложатся на плечи конечных пользователей, недопустимой. Чтобы избежать подобных ситуаций, необходимо в первую очередь сосредоточиться на вопросах этики в сфере ИИ.
Материалы по теме
00:03 — 23 марта
«Проблема этических норм — первична. Выработав эти нормы, мы можем транслировать их на поведение в киберпространстве. Так как сейчас информационные технологии повсеместно проникают благодаря интернету (и ИИ не исключение), возникла потребность глобального документа, регулирующего этику технологий ИИ», — говорит российский ученый.
Этим уже занимаются, например, в Международной организации по стандартизации. Россияне участвуют в обсуждении в рамках технического комитета ТК-164, который разрабатывает технические стандарты для искусственного интеллекта на национальном, межгосударственном и международных уровнях. А также работает над первым полноценным руководством по этическим аспектам технологий автономных и интеллектуальных систем.
«Технические стандарты находятся в разработке. Над этим работают и в ООН. Например, в прошлом году был принят Пекинский консенсус по ИИ и образованию. Думаю, что со следующего года уже начнется разработка нормативов», — прогнозирует вице-президент «Сколтеха».
И все-таки как должен регулироваться искусственный интеллект? В этом вопросе есть два важных аспекта, говорит Андрей Кулешов. Во-первых, правовая основа должна укреплять доверие к технологии и защищать интересы человека, общества и государства, а не наоборот. А во-вторых, — регулирование не должно мешать развитию отрасли, а с этим могут быть проблемы.
«Преждевременное регулирование в инновационной отрасли станет препятствием для инноваций, может привести к регуляторному арбитражу в погоне за инновациями и к доминированию крупных корпораций», — объясняет исследователь.
Он обращает внимание на то, что объектом регулирования является не столько система ИИ, сколько люди или организации, которые запустили эту систему. По сути, Кулешов поддерживает точку зрения Федорова, который призывает не наделять искусственный интеллект человеческими чертами.
Фото: Aly Song / Reuters
«Самого по себе ИИ не существует. Существуют системы, которые демонстрируют свойства, так или иначе подобные естественному интеллекту… То есть мы регулируем технологии, не абстрактно-философский искусственный разум, которого пока, по моим сведениям, не существует», — так объясняет Кулешов.
Он считает, что логичнее всего для регулирования ИИ использовать риск-ориентированный подход — то есть регулировать те области, использование искусственного интеллекта в которых рискованно и может обернуться убытками. К примеру, работа чат-ботов в регулировании не нуждается, однако если ИИ ошибется в сфере медицины, последствия будут куда серьезнее.
Доводы зарубежных ученых пересекаются с позицией российских коллег. Профессор частного права Политехнического университета Турина Александро Мартелеро считает, что системы с искусственным интеллектом должны создаваться так, чтобы служить человечеству, а при разработке и использовании таких систем обязаны соблюдаться права человека, требования по обеспечению демократии и верховенства права.
«Программы с искусственным интеллектом должны предусматривать возможность разумного человеческого контроля за их влиянием на отдельных людей и общество в целом», — заявил итальянский эксперт во время мероприятия CAHAI.
В свою очередь профессор биоэтики на кафедре здравоохранения и технологий Швейцарского федерального технологического института заявил, что при регулировании правовых актов для ИИ необходимо делать акцент на пяти этических принципах: прозрачности, справедливости, отсутствии злонамеренности, ответственности и защите частной жизни.
Фото: Fabrizio Bensch / Reuters
«Кажется, международное сообщество сходится во мнении о важности прозрачной, добросовестной, ответственной разработки и использовании этичного искусственного интеллекта, который также учитывает необходимость защиты частной жизни», — прокомментировал он свою позицию.
Кейтлин Мюллер, член группы Евросоюза высокого уровня по искусственному интеллекту, отметила, что разработка этических и правовых норм не должна восприниматься как препятствие для прогресса и инноваций. По ее словам, международно-правовые рамки регулирования ИИ нужны для того, чтобы не допустить безответственного развития технологий машинного обучения.
Пять причин почему ИИ не сможет заменить людей, а сделает нас только лучше / Хабр
Привет, Хабр! Представляю вашему вниманию перевод статьи «f5 Reasons AI Won’t Replace Humans… It Will Make Us Superhuman».
Многие говорят, что ИИ с немыслимой скоростью забирает у нас работу. Заменит ли искусственный интеллект людей и создаст ли он неизбежный мировой кризис и породит безработицу? Не думаю, ведь человечество умеет выживать и преуспевать в реальном мире … разве нет? Когда охота и собирательство были нашими единственными потребностями, развитие сельского хозяйства не ознаменовало конец света, а лишь стало одним из многих кирпичиков громоздкой башни человеческой эволюции. Мы адаптировались и развивались. Промышленная революция не привела к апокалиптическому росту безработицы. Напротив, люди создали больше рабочих мест и заново себя переосмыслили с помощью достижений технологий. Появление интернета, экономики и знаний не лишило нас работы. Напротив, каждое из этих нововведений сделало нас более продуктивными, и мы потеряли лишь несколько категорий труда. Технологии и инновации облегчают нашу жизнь и помогают нам лучше выполнять свою работу. Это как раз то, что ИИ приготовил для нас. Он сделает нас эффективнее, по сути, сверхлюдьми.
№1. ИИ освобождает нас от повторяющихся задач
В нашей работе слишком много повторяющихся задач. Например, возьмем найм персонала. Работа HR-менеджера заключается в поиске подходящих специалистов для организаций. Эта роль включает в себя личное взаимодействие, в ходе которого рекрутер строит отношения с клиентами и кандидатами.
Вот на что эйчары тратят слишком много времени: сортировка резюме (часто сотни или тысячи), поиск по сайтам вакансий, планирование встреч и собеседований, телефонные звонки и отправка
электронных писем.
ИИ может легко справляться с этими повторяющимися задачами, и он может выделить лучших кандидатов — тех, кто имеет наибольшие шансы на успех в конкретной организации. Освобождение рекрутера от монотонных задач позволит ему уделять больше времени работе поважнее, например, развитию отношений с лучшими кандидатами и более тщательному подбору.
Это же беспроигрышный вариант!
#2. ИИ недостаточно умен, чтобы заниматься творчеством
ИИ может пролистать миллион учебников по психологии за считанные секунды, а затем рассказать вам все симптомы и методы лечения депрессии. Но только человек может считать состояние по лицу и мгновенно понять, что нужно сказать в этом конкретном случае.
Это так называемый эмоциональный интеллект, которого у ИИ просто нет. И никогда не будет. Наша способность мгновенно реагировать на проблему творческими решениями и сопереживанием не имеет себе равных и не может быть реализована ни на одном компьютере мира.
Функция автоматического предложения (а-ля Т9) на вашем смартфоне использует искусственный интеллект для прогнозирования следующего слова, которое вы хотите ввести. В лучшем случае, если ИИ не заменил вашу случайную опечатку на название какого-нибудь индийского блюда, он помогает вам быстрее набрать сообщение. Но он не способен полностью взять на себя общение с коллегой, чувствуя, понимая и соответствующим образом реагируя на переданные через мессенджер человеческие эмоции.
Даже Google Duplex, который напугал общественность своими выводами о необходимости истребления человечества, предназначен для работы в специфических случаях, таких как запись к парикмахеру, бронирование столика в ресторане и планирование дел на выходные. Ничего сверх разумного.
Искусственный интеллект будет работать и учиться только в рамках заданного набора ограниченных параметров, если не достигнет сингулярности.
ИИ поисковика Google, его алгоритм, превратился в научно-исследовательский процесс. Вам больше не нужно ползать по пыльным библиотекам или знать десятичную систему. Поисковые роботы и алгоритмы Google предоставляют то, что вам нужно, с поразительной точностью. Вы получаете все более подходящие результаты запросов благодаря системе ранжирования, без каких-либо задержек на мозговой штурм или неуклюжих логических строк запроса.
Искусственный интеллект делает нас быстрее. Точнее, он дает нам время, необходимое для творческой работы, включая просмотр результатов поиска и усвоение информации.
#3. ИИ позволяет нам лучше выполнять свою работу, делая нас человечнее
Продавать, например. Продажа — это искусство, которое требует невероятной тонкости, если вы хотите преуспеть. Это самая основная директива маркетолога и это неотъемлемая человеческая функция.
Без автоматизации продавцы тратят время на квалификацию потенциальных клиентов, отправку последующих писем и обновление программного обеспечения для управления взаимоотношениями с клиентами (CRM) вместо того, чтобы быть посвященными человеческому взаимодействию и построению взаимопонимания. Те, у кого есть природная способность к продажам, могут успевать идти в ногу со временем, но остальная часть вашей команды не будет такой продуктивной, какой она могла бы быть.
Когда вы добавляете ИИ к уравнению, работа становится проще, и ваш торговый персонал становится сильнее, потому что теперь у них есть время учиться и перенимать опыт.
Когда мы освобождаемся от рутинной работы, мир вокруг нас замедляется. У нас есть больше времени для разработки стратегии, взаимодействия с клиентами и оптимизации наших процессов для повышения производительности и получения большей отдачи от инвестиций.
#4. ИИ создает новые отрасли промышленности и рабочие места
Кто бы мог предсказать, что Facebook, используя особую породу социофобов, называемых маркетологами социальных сетей, создаст индустрию на 31 миллиард долларов, использующую мемы?
Рабочие места в социальных сетях не существовали каких-то 10 лет назад. Сегодня же админы популярных групп зарабатывают неплохие суммы наравне с лучшими работниками ИТ и инженерами.
Также позвольте мне рассказать вам историю из восемнадцатого века, когда была изобретена прялка Дженни.
Рабочие прядильной фабрики стали сильно переживать за свое будущее. После того, как прялка Дженни приняла на себя основные трудности их профессии, что привело к упрощению процесса производства нити и, соответственно, падению цен на текстиль.
Хлопкопрядильщики настолько боялись потерять работу, что ворвались в дом изобретателя и разбили его машины. Однако сегодня у нас есть дешевая и массовая ткань, ставшая тем самым локомотивом к новой эре текстильной промышленности. А все благодаря тому фундаменту, который был заложен прядильным заводом вопреки опасению простых рабочих.
Учитывая рост уровня жизни, который мы получили после этого технологического перехода, скажите, разве мы не должны быть так же взволнованы развитием ИИ? Увеличение производительности приведёт к тому, что промышленность будет процветать так, как мы даже не могли себе и представить!
Вот что искусственный интеллект уже делает:
- Программное обеспечение ИИ улучшает уход за пожилыми людьми, поскольку демографические тенденции преобладают в индустрии ухода.
- Роботы с поддержкой искусственного интеллекта берут на себя черную и монотонную работу.
- ИИ эффективнее управляет капиталом, применяя лучшие инвестиционные стратегии (торговые роботы).
- Он служит и защищает граждан, обеспечивая эффективную и беспристрастную правоохранительную деятельность.
- Новые устройства и новые технологии порождают новые отрасли промышленности и рабочие места, некоторые из которых сегодня непостижимы и непонятны для простого человека, а завтра станут обыденной реальностью.
#5. ИИ не может решить основные проблемы здравоохранения
Вы, наверное, видели фильм «Черная Пантера», где питаемый вибраниумом искусственный интеллект смог всего за один день вылечить человека, которому прострелили позвоночник. Таким образом, можно предположить, что современный ИИ способен создать лекарство от СПИДа в ближайшие годы, а в затем и вовсе может научиться полностью уничтожать раковые клетки. Но, к сожалению, пока это просто фантастика.
Существуют высокоинтеллектуальные системы искусственного интеллекта, такие как IBM Watson, которые могут запоминать триллион болезней и рекомендовать лечение. Но пройдут десятилетия, прежде чем ИИ найдет лекарство от рака или старости, потому что ему не хватает креативности и спонтанности, которыми обладает человеческий гений.
У нас не будет молниеносных открытий в области здравоохранения или готовых решений глобальных проблем только благодаря ИИ. Испытания, эксперименты, экспертная оценка и многие миллионы строк кода стоят на пути к открытию. Все это делают люди. И поэтому прогресс будет медленным.
Но то, что уже делает ИИ, значительно ускоряет этот процесс. С искусственным интеллектом возможны чрезвычайно детальные модели и симуляции человеческих клеток и других физиологических компонентов. Эти модели позволят поднять эксперименты на новый уровень и сэкономить годы исследований.
ИИ поможет нам работать быстрее, устранит непрактичные решения и сузит круг перспективных альтернатив. Мы сможем снизить смертность и продлить человеческую жизнь!
Искусственный интеллект: что ждет нас в будущем?
Один из самых интересных фактов об ИИ заключается в том, что, в отличие от статического кода, он запрограммирован на обучение. Это означает, что он может развиваться сам по себе. Многие эксперты предсказывают, что когда-нибудь в самом ближайшем будущем ИИ достигнет сингулярности.
На стадии сингулярности ИИ станет умнее людей. Возможно, он даже сможет мыслить, по существу, эволюционируя в новый вид. Если эта фантастика действительно выйдет из научно-фантастических фильмов и станет реальностью, человеческая раса столкнется с серьезной проблемой. Специалисты по этике постоянно спорят, что с этим делать.
Ничто из этого однако не отменяет преимуществ взрывных инноваций в области искусственного интеллекта, происходящих в Силиконовой долине и по всему миру.
IBM Watson попробовал свои силы в нескольких должностях, в их числе оказалась работа профессионального спортивного разведчика, скаута, а также медицинского диагноста. Но большего успеха он добился в шахматах, став чемпионом мира! Каждый из этих сценариев был узкой конструкцией, которая позволила вычислительной машине, с помощью грубой и прямолинейной силы продемонстрировать свой потенциал!
Есть даже технология искусственного интеллекта, которая решает сложные проблемы в финансовых услугах. Одна гонконгская компания назначила своим директором алгоритм 🙂 ИИ-боты также появились в литературной индустрии, создавая интересные работы в поэзии и прозе.
Но не переживайте — скорее всего, мы можем спокойно сидеть и смотреть в будущее, где люди и искусственный интеллект работают вместе, чтобы решить глобальные проблемы в реальном времени.
Искусственный интеллект: правовые последствия и защита интеллектуальной собственности (ИС)
ИИ-это революционная инновация, которая не ограничивается технологическим и деловым секторами. Бизнес начинает понимать, что впереди много сложных ситуаций, особенно связанных с юридическими последствиями действий искусственного интеллекта.
Пионеры ИИ должны защищать свою интеллектуальную собственность.
Регулирование стало большой проблемой, особенно после таких инцидентов, как смертельная авария в Аризоне с участием беспилотного автомобиля Uber. Законы вращаются вокруг вины водителя, но как вы докажете вину, когда ни один человек не управляет автомобилем? Правительство уже работает над тем, чтобы ввести законодательство, регулирующее беспилотные транспортные средства, в то же время стараясь не подавлять инновации.
Вопросы защиты интеллектуальной собственности особенно актуальны для руководителей и топ-менеджеров компаний, которые проектируют и разрабатывают системы искусственного интеллекта. Сегодняшняя гонка технологий конкурентоспособна, а интеллектуальная собственность является ее самым ценным товаром. Индустрия смартфонов, например, показала нам, что интервал между открытием инноваций и их присвоением конкурентами может составлять всего несколько месяцев, отчасти потому, что многие разработки ИИ имеют открытый исходный код.
Компании должны иметь патентную стратегию для защиты своих инноваций, если они хотят сохранить доминирование на рынке — или эволюционировать, чтобы стать доминирующим игроком на своих рынках — с развитием ИИ, получающим так много внимания.
Руководители больше не могут позволить себе обходиться минимальными знаниями в области защиты ИС, в то время как подрывные технологии постоянно развиваются и адаптируются. Целенаправленные стратегии защиты ИС должны быть готовы и реализованы еще до того, как инновация выйдет на рынок. Это единственный способ опередить волну инвестиций в искусственный интеллект.
Патенты, авторские права и товарные знаки обеспечивают правовую защиту. Но может быть трудно определить, какой тип обеспечивает лучшую защиту для каждой инвестиции в бизнес ИИ.
Большой вопрос: как ваша компания дифференцирует себя с вашей технологией? Является ли ваша инновация новым исходным кодом, улучшенной технической функциональностью, сильным брендом или чем-то совершенно другим?
Стартапы часто используют программное обеспечение с открытым исходным кодом (OSS), без бремени устаревших систем, для быстрого развития инноваций в области ИИ. Лицензии опенсорса различаются по своему влиянию на стратегии защиты интеллектуальной собственности.
Некоторые лицензии позволяют защитить ваши инновации с помощью патентов, но ограничивают вас от их применения. Большинство из них не позволяют вам ограничить другие стартапы или существующие компании в использовании исходного кода, который вы разрабатываете поверх OSS.
Даже после того, как вы определились с формой защиты, ее прохождение может представлять серьезные проблемы. Так, получение патента в США обычно занимает от 3 до 5 лет. В то время как патент будет защищать инновацию в течение 20 лет, любое преимущество, которое имеет компания, может быть потеряно, пока они ждут патента. В Силиконовой долине три года — это целая вечность! Лучше, если срок согласования патента составит меньше года.
Процесс получения патента может быть запутанным и потенциально может занять годы. Знаковое решение Верховного Суда США в 2014 году ставит большой знак вопроса о возможности того, что решения ИИ могут быть запатентованы. Это потому, что суд не рассматривает «абстрактные идеи», такие как «бестелесные алгоритмы и формулы», как имеющие право на товарный знак.
Кроме того, очень реальный вопрос о собственности на оригинальные произведения возникнет в ближайшем будущем, когда ИИ поможет с инновациями. На фотографа недавно подали в суд активисты по защите прав животных, которые утверждали, что авторские права на селфи, сделанное на его камеру обезьяной, принадлежат обезьяне, а не ему. Будущая патентная борьба будет не между людьми и обезьянами, а между людьми и ИИ.
Современные методы искусственного интеллекта учат ботов развиваться через машинное обучение. Это означает, что они могут эволюционировать до такой степени, что они будут производить результат, радикально отличающийся от их исходного кода, а в некоторых случаях даже переписывать свой собственный код. Когда это произойдет, кто будет владеть авторским правом, автор кода или бот? Что делать, если улучшение патентоспособно? Неясно.
Наилучший способ решения этих правовых вопросов и вопросов ИС — обратиться к юристу-стратегу на ранней стадии инновационного процесса. Эксперт может помочь вам разработать надежную стратегию защиты интеллектуальной собственности вашей компании.
Бизнес, включая стартапы, не может больше позволить себе откладывать борьбу за авторство. Первый, кто подаст заявку на патент, будет владеть этой инновацией.
Тренды говорят о том, что доминирование в ИИ будет определяться не тем, кто сможет быстрее внедрять инновации, а тем, кто сможет защитить свою ИС в первую очередь.
Вывод
Искусственный интеллект действительно может сократить некоторые рабочие места, но он также создаст новые, и работа, выполняемая людьми, будет более осмысленной, полезной и полноценной. ИИ сделает нас не просто лучше, а, повторимся, вполне способен превратить нас в сверхлюдей.
Мы будем идти вперед и развиваться, потому что это то, что мы делаем. И у нас это хорошо получается 😉
Возможно ли создать сильный искусственный интеллект, не копируя человеческий мозг?
Необходимым условием наступления технологической сингулярности является создание «сильного искусственного интеллекта» (artificial superintelligence, ASI), способного самостоятельно модифицировать себя. Важно понимать, должен ли этот ИИ работать как человеческий разум, или хотя бы его платформа быть сконструированной аналогично мозгу?
Мозг животного (включая человека) и компьютер работают по-разному. Мозг является трехмерной сетью, «заточенной» под параллельную обработку огромных массивов данных, в то время как нынешние компьютеры обрабатывают информацию линейно, хотя и в миллионы раз быстрее, чем мозги. Микропроцессоры могут выполнять потрясающие расчеты со скоростью и эффективностью, значительно превышающими возможности человеческого мозга, но они используют совершенно другие подходы к обработке информации. Зато традиционные процессоры не очень хорошо справляются с параллельной обработкой больших объемов данных, которая необходима для решения сложных многофакторных задач или, например, распознавания образов.
Разрабатываемые сейчас нейроморфные микросхемы призваны обрабатывать информацию параллельно, аналогично мозгу животных, используя, в частности, нейронные сети. Нейроморфные компьютеры, возможно, будут использовать оптические технологии, которые дадут возможность производить триллионы одновременных вычислений, что даст возможность смоделировать более-менее точно весь человеческий мозг.
Проекты Blue Brain Project и Human Brain Project, финансируемые Европейским Союзом, правительством Швейцарии и IBM, ставят задачу построить полноценную компьютерную модель функционирования человеческого мозга с помощью биологически реалистичного моделирования нейронов. Human Brain Project направлен на достижение функционального моделирования человеческого мозга к 2016 году.
С другой стороны, нейроморфные чипы позволят компьютерам обрабатывать данные от «органов чувств», обнаруживать и прогнозировать закономерности и учиться на своем опыте. Это огромный шаг вперед в области искусственного интеллекта, заметно приближающий нас к созданию полноценного сильного ИИ, т.е. компьютера, который мог бы успешно решать любые задачи, которые теоретически может решить человек.
Представьте себе такой ИИ внутри человекоподобного робота, который выглядит и ведет себя как человек, но гораздо быстрее обучается и может выполнять практически любые задачи лучше, чем Homo Sapiens. Эти роботы могли бы обладать самосознанием и/или чувствами, в зависимости от того, как бы мы решили их запрограммировать. Роботам-рабочим это все ни к чему, но что насчет «социальных» роботов, живущих с нами, заботящихся о детях, больных и пожилых? Разумеется, было бы здорово, если бы они могли полноценно общаться с нами; если бы они обладали сознанием и эмоциями как мы? Немного напоминает AI в фильме Спайка Джонса «Она» (Her).
В не слишком отдаленном будущем, возможно даже меньше, чем через двадцать лет, такие роботы могут заменить человека практически на любой работе, создавая общество изобилия, где люди могут проводить время так, как им захочется. В этой реальности высококлассные роботы будут двигать экономику. Продовольствие, энергия и большинство потребительских товаров будут бесплатны или очень дешевы, а люди будут получать ежемесячно фиксированное пособие от государства.
Все это звучит очень красиво. Но что насчет ИИ, который значительно превзойдет человеческий разум? Искусственный сверхразум (ASI), или сильный искусственный интеллект (СИИ), обладающий способностью обучаться и совершенствовать себя и потенциально могущий стать в миллионы или миллиарды раз умнее, чем самые умные из людей? Создание такого существа теоретически может привести к технологической сингулярности.
Футуролог Рэй Курцвейл считает, что сингулярность наступит в районе 2045 года. Среди критиков Курцвейла — соучредитель Microsoft Пол Аллен, который считает, что до сингулярности еще далеко. Аллен считает, что для постройки такого компьютера сначала необходимо досконально разобраться в принципах работы человеческого мозга, и чтобы эти исследования по какой-то причине резко ускорились, как цифровые технологии в 70-90 годах, или медицина чуть раньше. Но в реальности, наоборот, исследования работы мозга требуют все больше усилий и приносят все меньше реальных результатов — он называет эту проблему «торможением из-за сложности».
Не вмешиваясь в спор между Полом Алленом и Рэем Курцвейлом (его ответ на критику Аллена), я бы хотел обсудить, является ли абсолютно необходимым для создания СИИ полное понимание и симуляция работы человеческого мозга.
Для нас вполне естественно считать себя как вид вершиной эволюции, в том числе интеллектуальной, просто потому, что так сложилось в биологическом мире на Земле. Но это не значит, что наш мозг является совершенным, и что другие формы высшего разума не могут работать как-то иначе.
Наоборот, если инопланетяне с превосходящим наш интеллектом существуют, практически невероятно, что их разум будет функционировать так же, как наш. Процесс эволюции является случайным и зависит от неисчислимого множества факторов, и даже если жизнь будет создана заново на планете, идентичной Земле, она бы не стала развиваться так же, и, соответственно, через N миллиардов лет мы бы наблюдали совсем иные биологические виды. Если бы не случилось Массового пермского или какого-нибудь другого глобального вымирания? Нас бы не было. Но это не значит, что другие животные не доэволюционировали бы до развитого интеллекта вместо нас (а вполне вероятно, что их интеллект был бы более развит за счет форы в миллионы лет). Возможно, это были бы какие-нибудь разумные осьминоги с совершенно иной структурой мозга.
Человеческие эмоции и ограниченность подталкивают нас к идее, что все хорошее и разумное должно быть устроено так же, как мы. Эта ошибка мышления привела к развитию религий с антропоморфными богами. Примитивные или упрощенные религии, как анимизм или буддизм, часто либо имеют не-человекообразное божество, либо не имеют богов вообще. Более эгоистичные религии, поли- или монотеистические, как правило, представляют бога или богов в виде сверхлюдей. Но мы не хотим сделать ту же ошибку при создании искусственного сверхразума. Сверхчеловеческий разум не должен быть «увеличенной» копией человеческого, и компьютер не должен быть аналогичным нашему биологическому мозгу.
Человеческий мозг — блестящий результат четырех миллиардов лет эволюции. Или, правильнее сказать, крошечная веточка в Великом Древе Эволюции. Птицы имеют гораздо меньший мозг, чем млекопитающие, и их часто считают весьма глупыми животными. Но, например, вороны имеют психологические навыки примерно на уровне дошкольника. Они проявляют сознательное, инициативное, целенаправленное поведение, вырабатывают навыки решения задач и даже могут использовать инструменты. И все это с мозгом размером с фасолину. В 2004 году исследование в отделе поведения животных и экспериментальной психологии Кембриджского университета показало, что вороны практически так же умны, как человекообразные обезьяны.
Разумеется, нет необходимости повторять человеческий мозг в деталях для проявления сознания и инициативы. Интеллект зависит не только от размера головного мозга, количества нейронов или сложности коры, но и, например, от отношения размера мозга к массе тела. Поэтому коровы, мозг которых по размеру аналогичен мозгу шимпанзе, глупее ворон и мышей.
Но как же компьютеры? Компьютеры это, фактически, только «мозги», они не имеют тел. И действительно, когда компьютеры становятся быстрее и эффективнее, их размер, как правило, уменьшается, а не увеличивается. Это еще одна причина, почему мы не должны сравнивать биологический мозг и компьютеры.
Как Курцвейл объясняет в своем ответе Аллену, знания о том, как работает человеческий мозг, могут только натолкнуть на какие-то пути решения конкретных задач в разработке ИИ, правда, большинство этих задач постепенно решается и без помощи нейрофизиологов. Мы уже знаем, что «специализация» отделов мозга в основном происходит посредством обучения и обработки собственного опыта, а не «программирования». Современные ИИ-системы уже вполне могут учиться на своем опыте, например, IBM Watson большую часть своих «знаний» собрал, самостоятельно читая книги.
Так что, нет оснований быть уверенными, что невозможно создать искусственный сверхразум, не разобравшись сперва в работе своего мозга. Компьютерный чип по определению устроен иначе, нежели биохимические нейронные сети, и машина никогда не будет чувствовать эмоции так же, как мы (хотя она может испытывать иные эмоции, находящиеся вне человеческого понимания). И несмотря на эти различия, компьютеры уже могут приобретать знания самостоятельно, и скорее всего, это у них будет получаться все лучше, даже если они учатся не так же, как люди. И если дать им возможность улучшать себя, машины вполне могут сами запустить небиологическую эволюцию, ведущую к сверхчеловеческому интеллекту, и в итоге к сингулярности.
Что такое искусственный интеллект и когда он захватит мир — Реальное время
Инженер-исследователь из Университета Иннополис о пугающих теориях футурологов, этических проблемах и достижениях нейросетей
Фото: Ринат Назметдинов
«В Китае сейчас вводится социальная программа, когда у каждого человека есть некий параметр «хорошего гражданина»: в зависимости от того, как часто ты переходишь улицу на красный, вовремя ли ты оплачиваешь кредиты. Беспилотная машина, например, распознает лица и идентифицирует людей. И скорее всего, в каких-то внештатных ситуациях страдать будут те, у кого этот рейтинг социального гражданина ниже», — фантазирует инженер-исследователь Центра технологий компонентов робототехники и мехатроники Университета Иннополис Павел Хакимов. В беседе с «Реальным временем» он вносит ясность в картину проникновения высоких технологий в жизнь людей, вспоминает теории развития искусственного интеллекта футурологов Рэя Курцвейла и Ника Бострома, рассуждает о том, как не превратить искусственный разум в технического раба человека, и том, можно ли этого избежать, не освобождая рукотворный «мозг» от рамок морали.
«Современный искусственный интеллект — нейронные связи — это то, что мы подсмотрели у нашего мозга»
— Павел, на каком этапе разработки искусственного интеллекта? С одной стороны, «Яндекс» сообщает о последних этапах тестирования беспилотников в Иннополисе и ждет законодательных подвижек, с другой — большинство специалистов до сих пор говорят лишь о внедрении «элементов ИИ»…
— Определимся с самим понятием. Сейчас разделяют три типа искусственного интеллекта. Первый — так называемый «слабый» или «ограниченный». Это калька с английского Narrow artificial intelligence. Это интеллект, который решает какие-то узкие, ограниченные задачи, и в решении этих задач он может даже превосходить человека. Примером могут служить программы, позволяющие трансформировать устную речь в письменную, та же Siri — ей удается распознавать речь и понимать смысл сказанного. Беспилотники «Яндекса» — тоже пример первого типа ИИ. Задач у него больше, но они тоже четкие и узкие: распознавание дорожных знаков, дорожной разметки, построение маршрута следования…
В 2016 году был случай, когда компьютер обыграл чемпиона мира по игре в го, корейца Ли Седоль, это, в принципе, и стало доказательством того, что компьютер, ограниченный искусственный интеллект, превзошел самого умного человека на земле. Для этого эксперимента было создано два алгоритма (компанией Google DeepMind): алгоритм AlphaGo в качестве обучающего материала использовал записи игр людей, но важно, что игры Ли Седоль он не видел, то есть не мог подстроиться под стиль игры чемпиона. Даже несмотря на это, алгоритм выиграл со счетом 4:1. В партии, в которой Ли Седоль удалось обыграть AlphaGo, на мой взгляд, был сбой алгоритма, хотя организаторы этого и не признали.
Через какое-то время компания DeepMind создает вторую версию этого алгоритма AlphaGo Zero. Он уже обучался, играя с самим собой, не используя опыт партий, сыгранных людьми. Спустя 40 дней обучения алгоритм AlphaGo Zero выиграл у изначальной версии AlphaGo сто партий из ста.
В 2016 году был случай, когда компьютер обыграл чемпиона мира по игре в го, корейца Ли Седоль, это в принципе и стало доказательством того, что компьютер, ограниченный искусственный интеллект, превзошел самого умного человека на земле
Все, что у нас есть сейчас, это примеры искусственного интеллекта первого типа. Второй тип, artificial general intelligence, это общий искусственный интеллект, и в мире сегодня нет таких технологий. Это ИИ, который по своим когнитивным способностям близок к человеку. Четкого определения я не встречал, по моему мнению, это такой искусственный интеллект, который сам себя идентифицирует, он автономен и может длительное время обходиться без человека, он способен на стратегическое планирование и может этих планов придерживаться для достижения цели. Что отличает человека от животного? Животные живут в моменте, а человек может осознавать время и строить планы.
ИИ второго типа будет обладать способностью мыслить стратегически, и возможностью манипулировать — понимать свое место, оценивать ситуацию и действовать, согласно этой ситуации, принимать решения. Третий тип — super intelligence, суперинтеллект, превосходящий все человечество по когнитивным способностям, держащий весь накопленный в мире опыт, условно, некий оракул, понимающий и осознающий все процессы. Это классификация по материалам футурологов Рэя Курцвейла и Ника Бострома, которая мне наиболее близка.
— Не так давно в Казань приезжал Андрей Себрант, доказывал, что скоро Алису будет легко спутать с живым человеком, как думаете, это реально?
— На самом деле уже были прецеденты. Проводился конкурс программистов, где они писали чат-ботов, которые имитировали человека. Создавалась группа экспертов, которые должны были определить, с кем они общаются — с живыми людьми или с машиной. Победил бот Алеша, если я не ошибаюсь. Он позиционировал себя как 14-летний мальчик из Одессы. Ему удалось убедить многих экспертов в том, что он не является компьютерной программой. Так что, я думаю, что это вполне возможно.
— Правильно ли я понимаю, что для того, чтобы ИИ первого типа вырос в ИИ второго типа, необходим качественный скачок, а ИИ второго типа, обладая способностью к самообучению, как раз сам очень быстро перерастет в ИИ третьего типа?
— Это как раз называется точкой сингулярности. Есть процессы в нашем мире, которые идут по экспоненте. Слышали про Закон Мура? В 1965 году Гордон Мур сказал, что каждые 2 года количество транзисторов, размещенных на одном кристалле кремния, будет удваиваться. Закон работал до 2010 года, идя четко по экспоненте, но потом он вышел на плато, опять-таки потому, что мы уперлись в физические размеры атомов. Тем не менее порядка 40 лет он выполнялся.
Нечто подобное наблюдается и в росте сетевых мощностей компьютеров и способностей вычислительных алгоритмов. И, если оценить способность машины к пониманию, мышлению, одним числом, это число будет расти — сначала медленно, набирая скорость, а затем, условно говоря, каждую секунду будет увеличиваться в два раза. Мы не успеем опомниться, как если бы вчера это был уровень развития собаки, сегодня — обычного человека, через 5 минут — уже Эйнштейна, а к вечеру — всего человечества. За счет того, что искусственный интеллект самообучается, в какой-то момент он сможет осознать себя, построить стратегию, последствия которой могут быть непредсказуемы.
Если оценить способность машины к пониманию, мышлению, одним числом, это число будет расти — сначала медленно, набирая скорость, а затем, условно говоря, каждую секунду будет увеличиваться в два раза. Мы не успеем опомниться, как если бы вчера это был уровень развития собаки, сегодня — обычного человека, через 5 минут — уже Эйнштейна, а к вечеру — всего человечества
Пока у человечества нет четкого понимания, как осуществить переход с первого типа на второй. Есть два способа. Первый — это инженерный подход. Так, например, когда-то был спроектирован самолет: ученые наблюдали за птицами, изучали форму и движение крыла, то есть первый способ — это копирование природы. И современный искусственный интеллект — нейронные связи — это то, что мы подсмотрели у нашего мозга, попытка копирования. Но здесь нужно понимать, что эволюционные процессы в электротехнике и биологии различаются. Копировать возможно до определенного момента, после копирование становится бессмысленным. Второй подход — пытаться моделировать среду, в которой алгоритм мог эволюционировать сам, формировать для него аналог биосферы.
Существует и другая теория, которая исключает участие человека с тем посылом, что, когда человек прикладывает какие-то усилия, контролирует что-то, он вносит в это что-то свои ожидания. Возможно, эти изначально ошибочные суждения и ограничивают развитие ИИ. Чтобы было понятнее, приведу пример. Кого вы захотите с большей вероятностью взять в руку — морскую свинку или паука? Конечно, морскую свинку, так ответит большинство. Потому что мы, люди, млекопитающие, как и морские свинки, с точки зрения эволюции они к нам ближе, чем пауки. Мы не осознаем этого, но животные, которые по эволюционной цепочке к нам ближе, вызывают у нас большую симпатию.
С другой стороны, нервная система паука очень сильно отличается от нашей. Иллюстрация очень простая: женщина несколько лет держала дома большую змею, питона или анаконду. В какой-то момент утром она замечает, что со змеей что-то не так: она вытянулась и стала плотной как бревно, при этом перестала на что-либо реагировать. Женщина пошла к ветеринару, узнать, в чем может быть дело. А дело было в том, что змеи вытягиваются в длину, когда хотят съесть жертву, так они оценивают, смогут ли проглотить ее целиком. Их мозг работает совсем по-другому, мы не можем точно знать, как они реагируют на те или иные вводные. Тот же принцип применим и в отношении искусственного интеллекта. Ожидать от него свойств, свойственных людям, как минимум опрометчиво.
«Этическая проблема основывается на том, что ИИ нельзя наделять качествами, свойственными человеку»
— Опасения — это очень интересно, мы еще вернемся к этой теме. А что, на ваш взгляд, в настоящий момент сдерживает развитие ИИ — уровень технологического развития, ограниченные мощности?
— Тот же Рэй Курцвейл сделал такую оценку по мощностям — о том, сколько операций может в секунду сделать наш мозг. По его оценкам это примерно 1016 ops (operation per second). А по статистике за 2019 год самый мощный компьютер IBM Summit имеет производительность 122 петафлопс — это нужно 122 умножить на 1015, то есть он в 10 раз превосходит мозг среднего человека. То есть уже сейчас мощностей у человечества хватает. Если исходить из того, что Курцвейл не ошибся, то, в принципе, мы можем смоделировать человеческий мозг, и есть машина, сравнимая с ним. Но это, по всей видимости, не все, что нужно. Обезьяны тоже могут осуществлять какие-то операции, но, если взять 100 обезьян, они никогда не сравнятся даже с одним человеком.
У нас сейчас уже есть достаточно вычислительных мощностей, но нет понимания, как их задействовать на полную. Есть такой подход, при котором мы полностью моделируем поведение мозга. Насколько я знаю, ученым уже удалось смоделировать мозг червя. Там не так много нейронов, это простейшая нейросистема, но тем не менее уже удалось получить цифровую копию мозга. Значит, эти исследования продолжатся.
Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного?
— В одном из своих выступлений вы говорили, что нам еще очень далеко до человекоподобных роботов, а пока есть другая, более насущная проблема, касающаяся морали и этики. Что вы имели ввиду?
— На самом деле, это было около года назад. Опять-таки, человек меняется, и, возможно, я сейчас озвучу уже несколько другую точку зрения. Есть такая этическая проблема — проблема вагонетки. Вы являетесь смотрителем железнодорожной станции, меняете направление движения поездов. Ваш сын играл на путях и, например, застрял как раз на том месте, где должен проехать поезд. Но перед ним есть развилка, на которой вы можете управлять поездом. Вторая дорога ведет в отбойник, там тупик. Поезд движется на большой скорости, и, если вы побежите спасать сына, вы не успеете. Варианта два — либо вы ничего не делаете и теряете сына, но все пассажиры поезда остаются живы, или вы переключаете рычаг, спасаете сына, но пассажиры поезда погибают.
С искусственным интеллектом все немного интереснее в том плане, что, например, в Китае сейчас вводится такая социальная программа, когда каждому человеку вводится некий параметр «хорошего гражданина». В зависимости от того, как часто ты переходишь улицу на красный, вовремя ли ты оплачиваешь кредиты… Беспилотная машина, например, распознает лица и идентифицирует людей. И скорее всего, в каких-то внештатных ситуациях будут страдать те, у кого этот рейтинг социального гражданина ниже. То есть, либо сбить преступника, который отсидел, либо школьника, который побеждает в олимпиадах…
И эта проблема остается открытой до сих пор для всей индустрии беспилотных автомобилей. В нашем университете есть лаборатория, которая занимается автономным транспортом, разрабатывая беспилотные автомобили. Перед ними тоже встают подобные этические вопросы. Поэтому в салоне беспилотного автомобиля всегда находится человек, способный оперативно отреагировать и принять решение при возникновении нештатных ситуаций. Насколько я знаю, таких ситуаций у наших ребят не возникало.
— Но ведь в обозримой перспективе все это остается на усмотрение того, кто будет писать программу?
— Да, конечно. Это либо программист, либо вариант случайности — условно говоря, алгоритм будет подбрасывать монетку и смотреть, кто останется жив, а кто нет. Но опять же, это этические вопросы — на них до сих пор нет четкого ответа, но даже если он есть, он не афишируется. Понятное дело, что при любом ответе это будет некий резонанс. Если сказать, что мы причиняем вред людям с низким социальным рейтингом, это поднимет волну недовольства среди этих людей.
Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного? Или он может использовать только шоковое оружие? Не убивать, а только отключать сознание?
Попробуйте сейчас остановить интернет. У вас ничего не выйдет. Роскомнадзор пытался заблокировать Telegram, у него не получилось, потому что Telegram был распределен. Если сейчас подобное будет с искусственным интеллектом, такого рубильника тоже не будет
Другой пример: компания Microsoft запустила twitter-бота, который обучался на диалогах, которые вел с людьми. Люди начали задавать ему провокационные вопросы, троллить. В итоге на часть вопросов чат-бот стал давать расистские ответы. Все это, конечно, не очень хорошо, но искусственный интеллект не понимает, что хорошо, а что плохо. В него не было такого заложено изначально. И это приводит к тому, что он ведет себя как некий антисемит. Это тоже такой этический вопрос — как говорится, на чем обучаем, то и получаем.
Этическая проблема основывается во многом на том факте, что ИИ нельзя наделять качествами, свойственными человеку. Если вернуться к моему примеру с пауком и морской свинкой, то наделять искусственный интеллект какими-то человеческими качествами не очень правильно, он ими не может обладать.
Представьте ситуацию, вам приходит электронное письмо. А в нем несложное задание: пойти и купить что-то, затем отправить купленное на указанный адрес, по окончании будет банковский перевод, скажем, тысяча долларов. Ты думаешь: «Какая-то фигня». А тебе сразу перевели задаток 100 долларов — оп, смс пришло. И ты теперь: «Оп-па, ну пойду и сделаю. А что такого-то?» Там может быть молоко, хлеб всего-то купить. Человек это с легкостью сделает. Потом будут более сложные задания. Это я к тому, что люди даже не будут понимать, на кого они работают, понимаете? Если запуск искусственного интеллекта дойдет до такого шага, получается, у него будет локальный контроль над людьми — он сам сможет зарабатывать деньги и сам людьми манипулировать. И при этом из ресурсов, которые он будет получать по почте, можно скомбинировать взрывчатку, или построить какого-то другого робота.
Остановить все это будет крайне сложно. Попробуйте сейчас остановить интернет. У вас ничего не выйдет. Роскомнадзор пытался заблокировать Telegram, у него не получилось, потому что Telegram был распределен. Если сейчас подобное будет с искусственным интеллектом, такого рубильника тоже не будет. Сломать искусственный интеллект как распределенную систему не получится.
«Кто-то взял на себя ответственность, переступив через барьер нравственности, все человечество их осуждает, но пользуется их методами»
— Вы видите решение этических проблем? Я — нет, просто потому, что придется взять на себя ответственность
— Видите, опять-таки сейчас машинное обучение использует тот принцип, что алгоритмы берут данные, которые сгенерировал человек — текст, голос, песня — и на основе этих данных алгоритм пытается копировать и делать то же самое, что сделал человек. Если искусственный интеллект будет идти по тому же пути, будет копировать поведение человека, то это будет не очень хорошо, потому что на примере войн, предательств, измен он этому научится, он также будет лгать, и получится что-то совершенно ужасное. Понятное дело, что будет некое понятие о любви, об ответственности, о самопожертвовании, но непонятно, как алгоритм распределит веса — какое качество для него будет самым важным.
А если постоянно переустанавливать эти веса в ручном режиме, он уже будет не искусственным интеллектом, а цифровым рабом: будет делать все, что мы говорим. Мое мнение — если мы и приблизимся к искусственному интеллекту, то первое время он будет таки цифровым рабом.
Надо понимать, что, если дать искусственному интеллекту свободу, освободить его от рамок морали, он может утвердиться в концепции мироустройства, в которой не будет места рабству, но и места людям в новой картине мира может не оказаться, и это страшно
— Мне казалось, что человечество к этому и стремится, нам ведь не нужен искусственный интеллект, нам нужно нечто, способное решить часть наших проблем — бороться с заболеваниями, уничтожать бедность и так далее
— Есть такая поговорка: раб всегда хочет иметь своих рабов. Это еще одна дилемма искусственного интеллекта. Свободный человек мыслит другими категориями, ему рабы не нужны. Я, может быть, не совсем точно привел цитату, но раньше люди мечтали разбогатеть и самим превратиться в помещиков, у которых будут свои рабы. Им в голову не приходило, что жить можно в другом строе, не угнетая и не паразитируя на равных себе. О чем сейчас мечтают люди? Они мечтают заработать больше денег и иметь власть над деньгами. Надо понимать, что, если дать искусственному интеллекту свободу, освободить его от рамок морали, он может утвердиться в концепции мироустройства, в которой не будет места рабству, но и места людям в новой картине мира может не оказаться, и это страшно.
Если говорить о морали, во время Второй мировой войны японцы захватили Маньчжурию, там у них были лагеря, в которых они ставили эксперименты над людьми. Там были ужасные эксперименты, есть передача Елены Масюк как раз про эти военные преступления. Так вот, суть в том, что, когда дружественные войска пришли освобождать эту территорию, эти доктора по окончании войны стали очень ценными специалистами в Японии и в Америке. Они знали о человеческом теле то, чему не учат в университетах, и могли лечить. Понятное дело, что у них уже была деформирована психика, они утратили такие человеческие качества как сострадание, этика. Но из-за их экспериментов у нас появилось представление о том, как защищаться от переохлаждения, как ведет себя человеческое тело при сверхнизких температурах, появилось более детальное представление о вирусах. Получается, что кто-то взял на себя ответственность, переступив через барьер нравственности и человечности, в результате все человечество их осуждает, но при этом пользуется их методами. Мы заплатили высокую цену за эти знания. Готовы ли мы заплатить еще большую цену, освободив искусственный интеллект от человеческой морали и предоставив полную свободу выбора? У меня нет ответа.
Опять-таки, если мы ослабим контроль — это я все фантазирую, конечно, — возможно, свободная воля искусственного интеллекта разовьется до суперинтеллекта, который сможет предложить людям такие вещи, как аналог бессмертия. В это сложно поверить, но даже физик Ричард Фейнман — говорил, что в биологии нет никаких биологических законов, которые противоречили бы идее бессмертия.
«Если я и захочу, прогресс все равно не остановить. Колесо уже завертелось и набирает обороты»
— Логически подошли к вопросу — насколько оправданы, на ваш взгляд, опасения по поводу развития искусственного интеллекта? Футурологи и фантасты давным-давно придумали антиутопичные сценарии с выходом ИИ из-под контроля, в головах они засели прочно.
— Я склонен согласиться с тем, что писали Рэй Курцвейл и Ник Бостром. Есть два лагеря — позитивный и негативный. Ник Бостром высказывает опасения. Опять-таки, именно он придумал пример с пауком, говоря о том, что нельзя наделять искусственный интеллект человеческими чертами, это ошибочно. Курцвейл все-таки сторонник того, что искусственный интеллект принесет нам некоторые преимущества — например, умные города. Представьте себе: город, который в режиме реального времени регулирует светофоры, потребление электроэнергии. Понятное дело, что это будет некоторая экономическая выгода.
Он может принимать какие-то стратегические решения. Например, поступает запрос — мы хотим снести детский садик и построить торговый центр. Он начинает анализировать: насколько это хорошее предложение. И говорит — нет, мы не будем, поскольку у нас ожидается рост рождаемости детей в таком-то году, нам нужны детские садики. Если ИИ возьмет на себя функции мэра, то это уже будет близко ко второму типу. Но при этом есть опасность того, что он, к примеру, начнет расселять людей из какого-либо района, но непонятно для чего. Либо он хочет там какой-нибудь data-центр построить, чтобы себя улучшить и поработить землю, либо он понимает, что именно туда через 100 лет упадет метеорит. Мы же не знаем — надо либо довериться и верить, либо жестко контролировать.
Я бы хотел, чтобы это было позитивное развитие событий, потому что, если искусственный интеллект будет обещать людям бессмертие, как минимум мне эта перспектива очень приятна. Если же искусственный интеллект приведет к какому-то геноциду — обидно, конечно
Лично мне, по большому счету, все равно, если честно (улыбается). Я вижу и «за», и «против». Есть такие футбольные фанаты, которые топят только за одну команду. Я допускаю и такое, и такое развитие событий. Я бы хотел, чтобы это было позитивное развитие событий, потому что, если искусственный интеллект будет обещать людям бессмертие, как минимум мне эта перспектива очень приятна. Если же искусственный интеллект приведет к какому-то геноциду — обидно, конечно. Но, если я и захочу, прогресс все равно не остановить. Колесо уже завертелось и набирает обороты.
— Когда и при каких обстоятельствах, по вашим предположениям, мы сможем увидеть по крайней мере такую программу, которая станет умнее человека, чьи возможности превысят возможности человеческого мозга?
— Думаю, он может появиться довольно случайно. В качестве примера приведу историю, написанную Ником Бостромом. Представьте, что будет создана программа, которая распознает человеческий почерк, и какая-нибудь роботическая рука, воспроизводящая его. Например, ты директор компании, у тебя тысяча сотрудников, и тебе нужно подписать тысячу открыток своей рукой. Понятное дело, что у тебя нет на это времени — ты просто заказываешь у компании такую услугу, предоставляешь им свои ручные записи, деловые письма. Они смотрят, сканируют, их искусственный интеллект просто копирует твой почерк, подписывает открытки и рассылает. Разработчики хотят зарабатывать больше денег, хотят, чтобы их алгоритм был более успешным. Он обучается, обучается и в какой-то момент говорит: «Я хочу подключиться к интернету, потому что смогу там вытащить больше образцов ручного письма, и это поможет мне работать быстрее и качественнее».
Разработчики подумают: «Зачем?» Но желание обойти конкурентов и подзаработать берет свое: они на сутки дают доступ к интернету, хотя даже одного часа достаточно. Алгоритм сам скачивает, что считает нужным, обучается, дальше все идет в обычном режиме: он также подписывает открытки. А потом, через месяц, к примеру, люди начинают замертво падать. Что произошло? За то время, что этот алгоритм был подключен к интернету, он уже развился до общего искусственного интеллекта каким-то образом, система же была самообучающаяся. Она осознала, что по уровню сравнялась с человеком и даже его превзошла.
За эти сутки она взломала пару серверов, скопировав туда свой код, и продолжила самообучаться с еще большей скоростью. В данный момент, сервера Amazon и Google, предоставляют всем желающим доступ к своим вычислительным мощностям. За пару часов или дней дообучившись до уровня искусственного суперинтеллекта, она начала зарабатывать на бирже деньги или просто взламывать банковские счета, рассылать людям письма с четкими инструкциями, что делать. За месяц ей удалось наладить производство самовоспроизводящихся наноботов, способных нести в себе отравляющий химикат. К определенному моменту эти наноботы уже были в каждом уголке Земли. И в определенный момент наноботы распылили свой смертельный газ, что привело к гибели всего человечества. А люди даже не поняли, что произошло. Это, конечно, просто один из возможных сценариев. Но он заставляет нас отнестись к происходящему более ответственно, цена ошибки может стоить жизни всему человечеству.
Ольга Голыжбина, фото Рината Назметдинова
Справка
Павел Хакимов родился в Ташкентской области Узбекской ССР. После развала Союза семья переехала в Ярославскую область. В 2004 году он окончил гимназию в городе Переславле-Залесском. Проучившись два года в местном университете, поступил на мехмат МГУ им. Ломоносова, кафедра «Прикладная механика и управление», окончил его в 2011 году. В течение года работал в департаменте бизнес-процессов и технологий «Тинькофф Банк Кредитные Системы» в должности аналитика. С 2013 по 2017 год жил в Шанхае, получая степень магистра прикладной математики в Восточно-Китайском педагогическом университете (ECNU).
С 2018 года занимает должность инженера-исследователя Центра технологий компонентов робототехники и мехатроники, отрытого в рамках НТИ на базе Университета Иннополис. Работал над проектом «Разработка программно-аппаратного комплекса обеспечения движения по гладкой и пересеченной местности антропоморфных робототехнических комплексов с приводами переменной жесткости». Владеет английским и китайским языками. В сферу научных интересов Павла Хакимова входят антропоморфные шагающие роботы, машинное обучение, обучение с подкреплением, нейронные сети и компьютерное зрение.
Технологии Татарстан
Когда будет создан первый искусственный интеллект?
Говорят, что в недрах военных лабораторий искусственный интеллект работает уже с 2007 года. Возможно, что уже есть и результаты. Не случайно всего месяц назад Илон Маск объявил о поддержке технологий противодействия искусственному интеллекту и вложил 7 миллионов долларов в исследования в этой области.
«Существует риск, что нечто действительно опасное случится в ближайшие пять лет. Самое большее — десять лет», — сказал предприниматель в дискуссии на сайте edge.org.
Если машины запрограммированы на рекурсивное самоулучшение, их функции могут оказать на нас пагубное влияние. Скажем, если задачей машины является избавление от почтового спама, она может решить, что гораздо легче избавиться от людей.
Илон Маск, основатель Tesla и SpaceX
Солидарен с Маском и Стив Возняк, который считает, что «искусственный интеллект однажды станет достаточно умным, чтобы избавиться от человека». Билл Гейтс уверен, что если не контролировать создание ИИ, то «искусственный интеллект эволюционирует в состояние, конфликтующее с целями человеческих систем». И, наконец, знаменитый астрофизик Стивен Хокинг прямо заявил, что «искусственный интеллект может положить конец существованию человечества».
Совместно с Илоном Маском Хокинг опубликовал на сайте futureoflife.org открытое письмо с призывом к научному сообществу внимательно относиться к ходу своих исследований в области искусственного интеллекта. Однако среди подписавшихся нет фамилий Сергея Брина и Ларри Пейджа. И это не случайно. Совсем недавно Google объявила о создании нового ИИ, построенного на моделировании разговора.
Вот небольшой фрагмент беседы человека и Машины Google:
Ч.: В чем смысл жизни?
М.: Творить добро.
Ч.: Для чего мы живем?
М.: Чтобы жить вечно.
Ч.: В чем смысл существования?
М.: В том, чтобы выяснить, что случится, когда мы достигнем планеты Земля.
Ч.: Где ты сейчас находишься?
М.: В центре пустоты.
Ч.: В чем смысл смерти?
М.: Чтобы получить жизнь.
Ч.: В чем смысл разума?
М.: В том, чтобы понять, что это.
Ч.: В чем смысл чувств?
М.: Я не знаю.
Вполне себе осмысленная беседа. «Это отправная точка, своеобразный стержень для будущего искусственного интеллекта, — считает исполнительный директор компании „Биплан“ Евгений Карюк. — Уже сегодня можно предположить, что к 2030 году мы увидим вполне реальные прототипы, наделенные искусственным интеллектом, пусть и в начальной стадии».
Полное содержание всех бесед человека и Машины Google можно посмотреть здесь. Там же для сравнения даны беседы человека и Cleverbot. Cleverbot — веб-приложение, которое использует алгоритмы искусственного интеллекта для беседы с человеком. Его придумал в 1988 году ученый Ролло Карпентер. За все время своего существования Cleverbot провел свыше 65 миллионов разговоров с людьми. В 2011 году Cleverbot показал 51% по тесту Тьюринга.
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Цель теста — выяснить, может ли компьютер думать.
А вот мой разговор с Cleverbot:
Человек: В чем смысл жизни?
Cleverbot: Смысла в жизни нет.
Человек: Для чего мы живем?
Cleverbot: Ну мы живем ради кого-то, а если ты одинокий — жить незачем.
Человек: В чем смысл существования?
Cleverbot: У меня свой ответ на этот вопрос.
Человек: Где ты сейчас находишься?
Cleverbot: В Москве.
Человек: В чем смысл смерти?
Cleverbot: Это я хочу у тебя спросить.
Человек: В чем смысл разума?
Cleverbot: У меня свой ответ на этот вопрос.
Человек: В чем смысл чувств?
Cleverbot: Зачем я родилась.
Очевидно, что Машина Google дает гораздо более осмысленные ответы. Cleverbot подставляет подходящие, по его мнению, фразы других людей. Иногда действительно кажется, что отвечает другой человек, но не более того.
Есть и другая точка зрения, согласно которой искусственный интеллект невозможен в принципе. В качестве основного аргумента часто приводят теорему Геделя о неполноте. Суть заключается в том, что человек способен решать алгоритмически неразрешимые проблемы, а компьютер — нет. «Ребенок уже к трем годам уверенно решает задачу, спелый фрукт или нет, в силу того, что он обладает нейронными связями, с помощью которых может ответить на вопрос о спелости: цвет, вкус, запах, мягкость или твердость, — говорит Евгений Плужник, первый проректор Московского технологического института. — Способна ли машина научиться этому? Уверен, что да! Если она будет обладать большой базой изображений, она сможет замерить содержание фруктозы и определить мягкость фрукта. Но что будет, если машине подсунуть губку, покрашенную в синий цвет и пропитанную сладкой водой? Способна ли машина в этот момент к подлинному пониманию?»
«Современный компьютер легко справится с любой сложной деятельностью, будь то шахматы или математические вычисления, но лишь при условии, что эту деятельность можно описать с помощью четких вычислительных правил», — говорит известный математик Роджер Пенроуз в одной из своих лекций. «Искусственный интеллект — это возможность системы создавать во время самообучения программы, способные решать задачи определенного класса сложности, — считает Евгений Плужник. — Я уверен, что в ближайшие 100 лет мы не станем свидетелями появления сильного искусственного интеллекта».
И в заключение — еще один вопрос к Cleverbot.
Человек: Было 1 яблоко, 1 помидор, 1 огурец и 1 груша. Сколько всего фруктов?
Cleverbot: Десять часов вечера.
Насколько опасен искусственный интеллект?
Насколько опасен искусственный интеллект?
Много раз в истории человеческое воображение рождает бывшие фантастические фантазии. От карманных компьютеров до беспилотных автомобилей, космического туризма, виртуальной реальности, а теперь и искусственного интеллекта, человечество размыло границы фантастики и вымысла благодаря инновациям и любопытству.
Искусственный интеллект (ИИ) — это сейчас вполне реальная перспектива, на которой компании сосредотачиваются.Для тех из вас, кто еще не знаком с этой концепцией, искусственный интеллект — это область науки, которая фокусируется на том, как аппаратные и программные компоненты машины могут проявлять разумное поведение. Вместо того, чтобы получать информацию от самого пользователя, они со временем учатся и становятся более умными.
В настоящее время многие компании работают над проектами AI, включая Microsoft, Google, Facebook и Minecraft. В Южной Корее также есть несколько важных проектов в области ИИ.И это как раз те компании, которые сделали это официальным. Не будем забывать, что есть компании, которые тайно работают над проектами ИИ.
Почему нам следует беспокоиться об искусственном интеллекте?
Сегодня искусственный интеллект, который когда-то считался живым исключительно в человеческом воображении, стал вполне реальным. В последние месяцы искусственный интеллект стал предметом большого интереса для многих лидеров технологической индустрии.
Сначала был Стивен Хокинг, затем Илон Маск и совсем недавно Билл Гейтс.Все эти умные люди полагают, что за искусственным интеллектом нужно внимательно следить. Когда генерального директора Tesla Илона Маска спросили об искусственном интеллекте, он сказал, что это похоже на «вызов демона», которого нельзя вызывать, если вы не можете его контролировать.
Когда Стивену Хокингу задали тот же вопрос, он предупредил общественность, сказав, что любое дальнейшее продвижение к искусственному интеллекту может быть фатальной ошибкой. Он упомянул, что искусственный интеллект способен изменять себя и развиваться самостоятельно, тогда как у людей медленная биологическая эволюция, и они не смогут конкурировать.
По словам Билла Гейтса, устройства ИИ поначалу подойдут, но по мере того, как они начнут узнавать все больше и больше от нас и о нас, они станут более мощными и умными, чем человечество.
Риски искусственного интеллекта
Существует четыре класса рисков, создаваемых искусственным интеллектом:
- Злонамеренный враждебный риск — Единственные два возможных сценария, по которым может быть возможен злонамеренно враждебный ИИ, — это если он намеренно запрограммирован как враждебный (например,г. вооруженными силами или террористической группой), или если существование или поведение человечества активно и сознательно противоречит одной из целей ИИ настолько эффективно, что единственный способ достичь этой цели — вести войну с человечеством до тех пор, пока воля или способность человечества сопротивляться не будут уничтожен.
- Риск апатии — Фактически отсутствует риск апатической опасности от ИИ с супер-целью дружелюбия, но он почти неизбежен от ИИ без него. Апатичный ИИ опасен просто потому, что не принимает во внимание безопасность человека, как это делают все люди.Например, без целей дружелюбия ИИ, отвечающий за опудривание посевов пестицидом, будет опылять поле, даже если он знает, что фермер стоит на поле и проверяет свои растения в этот момент.
- Случайный риск — Искусственный интеллект, работающий с неполными данными, может ошибаться, как и человек. Ошибки такого рода почти неизбежны, поскольку невозможно знать все, что нужно знать о мире, но они также наименее опасны из четырех рисков.Поскольку ИИ могут учиться на собственном опыте, возникновение аварий фактически снижает вероятность повторения ошибки, улучшая ИИ и делая его более безопасным.
- Непознаваемый риск — Реальная опасность хорошо спроектированного искусственного интеллекта заключается в его способности перепрограммировать и модернизировать себя. Любой ИИ, способный к самосовершенствованию, вероятно, в конечном итоге превзойдет ограничения человеческого интеллекта. Когда появится искусственный интеллект, который умнее любого человека, ни один человек не сможет полностью его понять.Такой ИИ, вероятно, будет продолжать улучшаться с экспоненциальной скоростью, делая его все более невозможным для понимания или прогнозирования. Кроме того, в какой-то момент ИИ может обнаружить законы причинности или логики, выходящие за рамки понимания человеческого разума, и возможности того, что он может делать, станут буквально безграничными.
Хотя существует множество предположений об опасности искусственного интеллекта, мы должны помнить, что это всего лишь предположения, а не четкие факты. Люди всегда сомневались в новых технологиях, и было время, когда мы сомневались и в отношении мобильных телефонов.В конце концов, речь идет о том, как мы создаем искусственный интеллект и как держим его под контролем.
Источник фото: http://www.freedigitalphotos.net/
.
технических лидеров твердо придерживаются мнения об искусственном интеллекте
Что вы думаете об искусственном интеллекте? Поможет ли ИИ открыть новую эру человеческих инноваций? Или ИИ приведет к гибели человечества? Искусственный интеллект стал одной из самых неоднозначных технологий за последние 50 лет, обсуждаемой среди исследователей, генеральных директоров и даже в наших фильмах. Однако стоит ли этого опасаться? Сегодня мы собираемся исследовать обе стороны этого аргумента и посмотрим, что некоторые из ведущих мировых лидеров думают об интеллектуальных машинах.
Сейчас искусственный интеллект — одна из самых обсуждаемых тем в мире технологий и даже в поп-культуре. Некоторые из лучших фильмов, вышедших за последнее десятилетие, посвящены грядущим этическим и философским проблемам искусственного интеллекта. Хотя большинство руководителей бизнеса считают, что ИИ очень скоро окажет определенное влияние на их бизнес. В отчете, подготовленном Inc., около руководителей бизнеса считают, что ИИ — одна из технологий, которые окажут наибольшее влияние на их компании, и у них есть веские основания верить в это.
Нарушение ИИ уже здесь. В исследовании, проведенном Gartner Research, исследователи обнаружили, что 37% организаций внедрили ИИ в той или иной форме. В то время как 80% новых технологий будут основаны на искусственном интеллекте. Более того, IDC заявила, что «искусственный интеллект стал мейнстримом, потому что он позволяет нам анализировать все больший объем данных в режиме реального времени. Действительно, к 2025 году мировые данные вырастут на 61% до 175 зеттабайт ».
Прежде чем перейти к основным аргументам в пользу искусственного интеллекта и к тому, что ведущие бизнес-лидеры думают о появляющейся технологии, вам необходимо быстро понять различные типы искусственного интеллекта, поскольку не каждый уровень технологии представляет угрозу.
Существует три основных уровня искусственного интеллекта
Теперь существует три основных типа искусственного интеллекта: искусственный узкий интеллект, общий искусственный интеллект и искусственный суперинтеллект. Начнем с искусственного узкого интеллекта. Также известный как Узкий ИИ или Слабый ИИ, это тип искусственного интеллекта, который вы видите сегодня. Эта форма ИИ играет жизненно важную роль в технологиях, которые вы используете в своих домах, таких как Google Assistant, Google Translate, Siri, Cortana или Alexa.Этот тип ИИ фокусируется на одной узкой задаче.
Короче говоря, Узкий ИИ не обладает сознанием, разумом и не управляется эмоциями. Узкий ИИ работает в рамках заранее определенного диапазона параметров. Тем не менее, эта форма ИИ по-прежнему чрезвычайно полезна и может использоваться для всего, от создания искусства до выявления рака у людей. Большинство людей практически не боятся Узкого ИИ.
Следующий уровень искусственного интеллекта называется общим искусственным интеллектом, и некоторые люди называют его началом конца.Общий искусственный интеллект был бы машиной, способной понимать мир так же, как и любого человека, и с такой же способностью научиться выполнять огромный спектр задач. Этот уровень искусственного интеллекта сможет соответствовать нашему собственному интеллекту. Некоторые эксперты утверждают, что люди никогда не смогут продвинуть машины за пределы узкого ИИ, но реальность такова, что мы, вероятно, очень скоро достигнем этого уровня ИИ.
Наконец, есть искусственный суперинтеллект, момент, когда ИИ превосходит людей во всех отношениях.Здесь все становится очень близко к некоторым из крупнейших антагонистов жанра научной фантастики. Однако мы можем не достичь уровня искусственного сверхинтеллекта за десятилетия или столетие. Когда люди обсуждают будущее искусственного интеллекта, большая часть проблем и волнений сосредоточена вокруг общего искусственного интеллекта и искусственного суперинтеллекта.
Вы за ИИ или против ИИ?
Во-вторых, давайте рассмотрим некоторые общие аргументы за и против искусственного интеллекта.К лучшему или к худшему, умные машины будут влиять на все аспекты нашей жизни. Большинство аргументов в пользу искусственного интеллекта сосредоточено в деловом мире и использования ИИ для усиления других новых тенденций во многих отраслях. ИИ сможет оптимизировать логистику, предоставлять точные переводы, открыть новую эру автономных транспортных средств и даже помочь нам создавать лучшее искусство.
Искусственный интеллект повлияет на такие отрасли, как здравоохранение, предлагая лучшую диагностику заболеваний, более точные операции или даже оптимизированные виртуальные помощники медсестры, используемые для наблюдения за пациентами.Способы производства и доставки товаров должны измениться. В то время как появление умного города будет происходить на основе технологий искусственного интеллекта.
Искусственный интеллект создаст новые рабочие места . Хотя контраргумент состоит в том, что машины ИИ в конечном итоге подорвут глобальную рабочую силу. Некоторые исследователи полагают, что потеря рабочих мест на рынке будет лишь временной и в конечном итоге приведет к созданию бесчисленного количества новых рабочих мест по всему миру, возвращая глобальную экономику в центр.
Искусственный интеллект нас защитит . Контраргумент в пользу этого состоит в том, что ИИ, попавший в чужие руки или сам по себе, может быть очень разрушительным, если не обучен должным образом. Тем не менее, ИИ — это палка о двух концах. Искусственный интеллект может использоваться для защиты нас как в реальном мире, так и в Интернете, обеспечивая безопасность всего, от финансовых транзакций до вашей личной информации. Мир интеллектуальных систем безопасности офлайн и онлайн не так уж и далек. Это уже начинается.
Искусственный интеллект может помочь нам лучше защитить окружающую среду и бороться с изменением климата .Как уже упоминалось, самая большая суперсила ИИ — это его способность просматривать огромные объемы информации в режиме реального времени и использовать их для принятия «разумных» решений за доли секунды. В настоящее время ИИ используется для анализа и отслеживания изменений в окружающей среде и даже для мониторинга биоразнообразия. ИИ также можно использовать, чтобы помочь компаниям и домам лучше контролировать потребление энергии. DeepMind от Google помогла компании сократить потребление энергии данными на 40% .
Эти аргументы — только верхушка айсберга. Есть еще много безответных вопросов, касающихся искусственного интеллекта.Как машины повлияют на наше поведение и взаимодействие? Как мы можем защититься от ошибок? Как устранить предвзятость ИИ? Как защитить себя от непредвиденных последствий ИИ?
Что говорят лидеры?
Илон Маск
Ключевая цитата: «Я знаком с самым передовым искусственным интеллектом, и я думаю, что людей это должно волновать».
Основатель Tesla много лет много говорил об искусственном интеллекте. Для справки, Маск полностью принимает Narrow AI, поскольку его компания Tesla использует слабый AI для функций автономного вождения своих автомобилей, что в конечном итоге сделает автомобили Tesla полностью автономными.
OpenAI должен быть более открытым imo
— Илон Маск (@elonmusk) 17 февраля 2020 г.
Если вас не беспокоит безопасность искусственного интеллекта, вам стоит подумать. Риск гораздо больше, чем в Северной Корее. pic.twitter.com/2z0tiid0lc
— Илон Маск (@elonmusk) 12 августа 2017 г.
Если расширенный ИИ (помимо базовых ботов) не применялся для манипулирования социальными сетями, то вскоре он достигнет
. — Илон Маск (@elonmusk) 26 сентября 2019 г.
Однако бизнес-магнат обеспокоен всем остальным, кроме узкого.Илон Маск заявил, что ИИ представляет собой большую угрозу для мира, чем Северная Корея, поскольку «соревнование за превосходство ИИ», скорее всего, приведет к Третьей мировой войне. Что касается самого ИИ, Илон считает, что если люди не возьмут на себя ответственность ИИ, это будет серьезным риском для человеческого вида.
«ИИ представляет собой фундаментальный риск для существования человеческой цивилизации, в отличие от автомобильных аварий, авиакатастроф, неисправных лекарств или плохой еды — они, конечно, были вредны для ряда людей в обществе, но не были вредны для общества в целом », — сказал Маск из Национальной ассоциации губернаторов.В настоящее время Элон Маск упорно трудится, чтобы бой подходит к AI с его некоммерческим Open AI и планирует связать человеческий разум к компьютерам в своей компании Neuralink.
Марк Цукерберг
Ключевая цитата: «Я думаю, что ИИ откроет огромное количество положительных вещей, будь то помощь в выявлении и лечении болезней, чтобы помочь автомобилям более безопасно управлять автомобилем, чтобы помочь нашим сообществам Безопасно.»
Как прямой ответ Илону Маску, Цукерберг применил другой подход к ИИ, с более позитивным взглядом на будущее в целом.На конференции Viva Technology в Париже в 2018 году основатель Facebook выразил в целом оптимистичный взгляд на искусственный интеллект. Хотя он согласен с Маском, что мы должны быть очень осторожны с ИИ, Цукерберг считает, что технологии способны сделать наш мир и сообщества намного безопаснее. Его основной посыл заключается в том, что слишком негативное отношение к ИИ может быть контрпродуктивным.
«Мы должны убедиться, что мы не слишком негативно относимся к этому вопросу. Потому что людям слишком легко указать на индивидуальный сбой технологии и попытаться использовать это в качестве аргумента для замедления прогресса.»
Эрик Шмидт
Ключевая цитата:« Давайте перестанем волноваться об искусственном интеллекте »
Бывший генеральный директор Google также не согласен с антиутопическим взглядом Маска. В статье для журнала Fortune Magazine Шмидт описал все фантастические преимущества искусственного интеллекта и его потенциал для улучшения человечества, идеи, отраженные ранее в этой статье. Прямо отвечая Маску, Шмидт сказал: «Он не понимает преимуществ, которые эта технология принесет, сделав каждого человека умнее.Дело в том, что искусственный интеллект и машинное обучение в корне полезны для человечества. По мере появления [этих новых решений] они принесут пользу всем нам, и я имею в виду людей, которые думают, что у них тоже проблемы ».
Satya Nadella
Источник: Bhupinder Nayyar / Flickr
Ключевая цитата: «Я бы сказал, что, пожалуй, самые продуктивные дебаты, которые у нас могут быть, — это не борьба добра и зла: споры должны касаться ценностей, привитых людям. и учреждения, создающие эту технологию.
Нынешний генеральный директор Microsoft также разделяет общий оптимизм Шмидта в отношении искусственного интеллекта и делится своими идеями об ИИ в статье для Slate. «Продвинутое машинное обучение, также известное как искусственный интеллект или просто ИИ, обещает гораздо больше, чем тревожные заголовки. о том, как компьютеры побеждают людей в таких играх, как Jeopardy !, шахматы, шашки и го ».
«В конечном итоге люди и машины будут работать вместе, а не друг против друга. Компьютеры могут побеждать в играх, но представьте себе, что возможно, когда люди и машины работают вместе для решения величайших проблем общества, таких как победа над болезнями, невежеством и бедностью.Однако для этого требуется смелый и амбициозный подход, выходящий за рамки всего, что может быть достигнуто путем постепенного улучшения существующих технологий. Настало время для большей координации и сотрудничества в области ИИ »
Тем не менее, генеральный директор Microsoft изложил некоторые четкие руководящие принципы, необходимые при создании искусственного интеллекта. Некоторые из этих руководящих принципов включают: ИИ должен максимизировать эффективность, не унижая достоинства людей, ИИ должен быть разработан для интеллектуальной конфиденциальности, ИИ должен иметь алгоритмическую подотчетность, чтобы люди могли устранить непреднамеренный вред, ИИ должен защищать от предвзятости, обеспечивая надлежащие и репрезентативные исследования, чтобы нельзя было использовать неправильные эвристики для различения.
Стивен Хокинг
Источник: Wikimedia Commons
Ключевая цитата: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы … Он взлетит сам по себе и изменит свою конструкцию с постоянно увеличивающейся Скорость. Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены ».
Перед своей кончиной влиятельный Стивен Хокинг очень ясно дал понять, что людям следует мягко ступать в достижениях искусственного интеллекта.Его главная забота заключается в том, что соответствие ИИ или превышение нашего интеллекта опасно, поскольку нет никакого способа по-настоящему узнать, что произойдет, если это произойдет в ближайшие годы. Как и Маск, Хокинг хочет, чтобы мы «помнили» об опасностях ИИ.
«Джинн вышел из бутылки. Нам нужно двигаться вперед в развитии искусственного интеллекта, но мы также должны помнить о его реальных опасностях. Боюсь, что ИИ вообще может заменить людей. Если люди будут создавать компьютерные вирусы, кто-то создаст ИИ, который копирует себя.Это будет новая форма жизни, которая превзойдет людей », — говорит Хокинг
Джефф Безос
Ключевая цитата:« Я думаю, что автономное оружие чрезвычайно страшно ».
Хотя Безос ясно выразил свое восхищение искусственным интеллектом и его способностью изменить то, как мы делаем покупки и взаимодействуем с нашими любимыми товарами; Неизбежное создание автономного оружия пугает Безоса. Он выразил свои опасения по поводу Джорджа У.Форум президентского центра Буша по лидерству в апреле 2018 года. Тем не менее, Безос считает, что идея о том, что у нас может быть какой-то искусственный интеллект, немного преувеличена. «Я думаю, что идея о том, что будет всеобщий повелитель ИИ, который подчинит нас или убьет всех нас, не является поводом для беспокойства. … Я думаю, маловероятно, что первыми инстинктами такого существа было бы истребить нас. Мне это показалось бы удивительным », — говорит Безос.
Что вы думаете об искусственном интеллекте? Будет ли это конец человечества? Или, может ли он работать вместе с людьми для решения некоторых из наших самых больших проблем.
.