Разное

Пройти тест тьюринга онлайн пройти: Тест на ассертивность — Пройти онлайн тест

Содержание

Третий Тест Тьюринга на русском языке / Блог компании Нейросети Ашманова / Хабр

Всем привет! Компании «Нейросети Ашманова» и «Наносемантика» приглашают всех желающих принять участие в 3-м всероссийском Тесте Тьюринга в 2019 году, который мы организуем.

Мы ранее проводили этот конкурс в 2015 и 2016 годах вместе с Фондом Сколково и Microsoft.

В 2019 году Тест Тьюринга пройдёт на крупнейшей конференции по искусственному интеллекту OpenTalks.ai.

Под катом – даты, подробности проведения и ссылка на регистрацию участников.

Тест Тьюринга в 2015 и 2016

Тест Тьюринга на русском языке проводился два раза: в 2015 году его провела Лаборатория Наносемантика совместно с Фондом Сколково на конференции Startup Village. Победителем стал робот “Соня Гусева” – за человека ее приняли 47% судей. Создатели – команда “Инобот”, возглавлял которую Иван Голубев. Сейчас он является руководителем проектов в компании Just AI.
В 2016 году Тест Тьюринга мы проводили вместе с Microsoft и Сколково. Призёром стал Иван Шумилов. Где и что сейчас делает Иван – мы не знаем, надеемся, он всё так же трудится на благо роботов.

Что такое Тест Тьюринга?

Напомним, что тест назван в честь английского математика Алана Тьюринга: тест предлагает способ оценки того, насколько робот может адекватно вести диалог с человеком. Тест считается пройденным, если независимый эксперт в процессе анонимного параллельного общения с роботом или человеком не сможет определить, кто есть кто.

Правила конкурса в 2019

Новый Тест Тьюринга будет отличаться от тех, что мы проводили ранее. Мы решили изменить правила в сторону менее научного, но более весёлого соревнования.

После регистрации на конкурс участники получают анонимные логины-пароли, с которыми они подключат своих чат-ботов к единому API, который предоставит “Наносемантика” за три недели до мероприятия. Каждый участник может выставить на конкурс до 3-х ботов. Каждый чат-бот должен обладать своей уникальностью и индивидуальность (например, личности «Блондинка Пенни», «Всезнайка Шелдон», «Илон Маск», «Владимир Жириновский»).

Для каждого уникального бота будет обеспечена пара человека-добровольца. Задача этого представителя человеческой расы – сыграть роль с такой же индивидуальностью, общаясь с собеседниками. Т. е. люди попытаются пройти Антитест Тьюринга, притворившись роботом.

Чаты со всеми ботами и гуманоидами будут доступны для любого собеседника во время проведения конференции OpenTalks.ai 14-16 февраля 2019 года через Телеграм. Каждый желающий сможет выступить экспертом, поговорить с несколькими собеседниками и попробовать угадать, с кем он разговаривает, задав 6 вопросов. Эксперту будет видно лишь имя собеседника, который может оказаться или ботом, или человеком.

Лучшим будет признан бот, которого максимальное количество независимых экспертов признало человеком. Призами будет награждены 3 команды с чат-ботами, 3 добровольца за лучшую роль бота и 3 эксперта с лучшими результатами угадывания.

Такой Тест Тьюринга, конечно, близок к грубому нарушению закона штата Калифорния (мы об этом законе писали ранее), но мы ведь не в Калифорнии, да и чат-боты участников ничего не будут пытаться продать посетителям конференции. Шутка.

Мы лично («Наносемантика») в конкурсе не участвуем, предоставляем платформу и нескольких базовых ботов-участников теста.

Роудмэп конкурса

  • 29 декабря 2018 – Объявление конкурса и правил. Старт регистрации заявок на участие.
  • 24 января 2019 – Открытие API для компаний-участников.
  • 7 февраля 2019 – Окончание регистрации команд-участников.
  • 12 февраля 2019 – Тестирование ботов. Тренинг добровольцев.
  • 14 февраля 2019 – Старт Теста Тьюринга.
  • 16 февраля 2019 – Окончание Теста Тьюринга. Подведение итогов и награждение победителей.

За всеми обновлениями по конкурсу вы можете следить на сайте мероприятия. Все желающие принять участие в Тесте Тьюринга смогут это сделать 14-16 февраля через Телеграм-бота @TuringTestRussiaBot.

Все подробности напишем в январе. Хороших вам праздников!

Финал «Теста Тьюринга»: подробности и результаты

Друзья!

Как мы уже сообщали вам, на конференции Startup Village 2015 состоялся финал конкурса «Тест Тьюринга».

В финал пробились 8 команд из 69 первоначально заявленных на конкурс: «Идеальный собеседник», «Позитифф», «Инобот», «Лиска Лисичкина», «Сборка №42», «Сократ», «Пятый дом» и «Форвард».

На Startup Village созданные финалистами чатботы анонимно общались с независимыми судьями из числа посетителей конференции, пытаясь выдать себя за человека. Наряду с роботами через чат разговаривали с судьями и люди – восемь волонтеров-лингвистов. Судьям предстояло определить, кто из их собеседников является роботом, а кто нет.

При том, что лингвисты во время диалогов не пытались притвориться чатботами, судьи иногда принимали волонтера за виртуального собеседника, а робота, который шел с ним в паре, – за реальную личность. Думаем, это отличное подтверждение того, что создатели чатботов трудились не зря.

По правилам конкурса тест Тьюринга считался бы пройденным, если бы робота приняли за человека как минимум 50% независимых судей. В зарубежных версиях теста Тьюринга обычно устанавливается другая планка – например, 30%. Так было в 2014 году, когда чатбот Евгений Густман ввел в заблуждение 33% судей в тесте Тьюринга, который проводил Университет Рединга в Великобритании.

Победителю нашего конкурса – роботу «Соне» – для прохождения теста Тьюринга не хватило всего 3%: ее приняли за человека 47% судей. Создатель «Сони» – команда «Инобот», возглавляемая  Иваном Голубевым из Санкт-Петербурга, – получила в итоге главный приз.

Иван Голубев, капитан команды «Инобот»

По словам Ивана, в конкурсе «Тест Тьюринга» его привлекла возможность «создать своего робота на базе готовой платформы, тратя время не на преодоление технических препятствий, а на создание персонажа». Своим персонажем он сделал 12-летнюю Соню Гусеву. Это «раздражительный, иногда грубоватый подросток, манера поведения которого предсказуема, и поэтому ее относительно легко имитировать».

Второе место досталось чатботу по имени Сократ (капитан – Александр Кузьмин, Москва), он сумел ввести в заблуждение 24% своих собеседников.

Третье место заняла «Лиска Лисичкина» (капитан – Алексей Лаврушев, Красноярск) с результатом 19%.

На церемонии награждения победителей член экспертного совета, председатель совета директоров Игорь Ашманов рассказал о планах организаторов «Теста Тьюринга» сделать этот конкурс ежегодным. А еще устроители собираются адаптировать его для студенческой аудитории и проводить состязания между профильными вузами.

Мы благодарим всех, кто участвовал в конкурсе и следил за развитием событий на первом тесте Тьюринга для чатботов, говорящих на русском.

Оставайтесь с нами – впереди у нас много интересных событий!


 

Интересные факты:

  • На обучение роботов участникам было дано меньше 2 месяцев
  • Каждый чатбот-финалист провел по 15 разговоров с независимыми судьями
  • Чатбот-победитель ввел в заблуждение 47% судей
  • База знаний робота-победителя включает в себя 1004 шаблона
  • Волонтером, которого судьи чаще всего принимали за робота, стала Светлана Мазурина: ее определяли как чатбота в 33% диалогов

Тест Тьюринга


Тест Тьюринга — эмпирический эксперимент, в ходе которого человек общается с компьютерной интеллектуальной программой, которая моделирует ответы как человек.


Предполагается, что тест Тьюринг пройден, если человек при общении с машиной считает, что общается с человеком, а не машиной.


Британский математик Алан Тьюринг в 1950 г. придумал такой эксперимент по аналогии с имитационной игрой, которая предполагает, что 2 человека уходят в разные комнаты, а 3й человек должен понять кто где, общаясь с ними письменно.


Тьюринг предложил такую игру провести с машиной и, если машина сможет ввести в заблуждение эксперта, это будет означать, что машина может думать.
Таким образом, классический тест проходит по следующему сценарию:


Человек-эксперт общается через чат с чат-ботом и другими людьми. По окончании общения эксперт должен понять, кто из собеседников был человеком, а кто — ботом.


В наше время тест Тьюринга получил много разных модификаций, рассмотрим некоторые из них:


Обратный тест Тьюринга


Тест заключается в выполнении каких- либо действий для подтверждения, что ты человек. Н-р, мы можем часто сталкиваться с потребностью ввести цифры и буквы в специальное поле с искаженного изображения с набором цифр и букв. Данные действия защищают сайт от ботов. Прохождение данного теста подтверждало бы способность машины воспринимать сложные искаженные изображения, но пока таких не существует.


Тест бессмертия


Тест заключается в максимальном повторении личностных характеристик человека. Считается, что если характер человека максимально качественно скопирован, и его невозможно отличить от источника, то означает, что пройден тест бессмертия.


Минимальный интеллектуальный Signal-тест


Теста предполагает упрощенную форму ответов на вопросы — только да и нет.


Мета-тест Тьюринга


Тест предполагает, что машина «умеет мыслить», если она может создать что-то, что она сама хочет проверить на разумность.


Первое прохождение классического теста Тьюринга зафиксировано 6 июня 2014 года чат-ботом «Женя Густман», разработанным в Санкт-Петербурге. Бот убедил экспертов, что они общаются с 13-летним подростка из Одессы.


В общем, машины уже способны на многое, сейчас много специалистов работают в данном направлении и нас ждут все более интересные вариации и прохождения данного теста.


«Eugene Goostman» удалось пройти тест Тьюринга и убедить 33% судей в том, что с ними общается не машина. Программа выдавала себя за триннадцатилетнего мальчика по имени Евгений Густман из Одессы и смогла убедить беседовавших с ней людей в том, что выдаваемые ею ответы принадлежат человеку.


Тест проходил в Лондонском королевском обществе, его проведение организовал Университет Рединга, Великобритания. Авторами программы являются российский инженер Владимир Веселов, проживающий в настоящее время в США, и украинец Евгений Демченко, который живёт сейчас в России.


Как программа «Евгений Густман» прошла тест Тьюринга?


В субботу 7 июня 2014 года суперкомпьютер по имени Eugene попытался воссоздать интеллект тринадцатилетнего подростка — Евгения Густмана.


В тестировании, организованном Школой системной инженерии при Университете Рединга (Великобритания), участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов.


Разработчикам программы удалось подготовить бота ко всем возможным вопросам и даже обучить его собирать примеры диалогов через Twitter. Кроме того, инженеры наделили героя ярким характером. Притворяясь 13-летним мальчиком, виртуальный «Евгений Густман» не вызывал сомнений у экспертов. Они поверили в то, что мальчик может не знать ответы на многие вопросы, ведь уровень знаний у среднего ребёнка существенно ниже, чем у взрослых. При этом его правильные и точные ответы списывали на необычную эрудицию и начитанность.


В тесте участвовали 25 «скрытых» людей и 5 чат-ботов. Каждый из 30-ти судей провёл по пять чат-сессий, пытаясь определить реальную природу собеседника. Для сравнения, в традиционном ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера* участвует всего 4 программы и 4 скрытых человека.


Впервые программа с «юным одесситом» появилась ещё в 2001 году. Однако лишь в 2012 году она показала действительно серьёзный результат, убедив 29 % судей.


Данный факт доказывает, что в скором будущем, появятся програмы, которые будут способны без проблем пройти тест Тьюринга.


тест Тьюринга

Идеологический тест Тьюринга | Уличная эпистемология

Алан Тьюринг – английский ученый первой половины 20-го века, оказавший огромное влияние на развитие компьютеров, криптографии, теории алгоритмов и еще много чего. А так называемый тест Тьюринга – это критерий, который он предложил применять для определения сильного искусственного интеллекта. Он предложил следующий тест: если человек, общаясь с машиной (например, при помощи текста), не сможет отличить ее от настоящего живого человека, то будем считать, что машина достаточно умная и прошла тест.

А идеологический тест Тьюринга – это условное название другого теста, который берет свою идею и название из оригинального теста Тьюринга, но который уже никак не связан с искусственным интеллектом, зато связан с диалогами об убеждениях и, в частности, с уличной эпистемологией.

Все мы понимаем, что для успешного диалога почти всегда необходимо хорошо понять позицию собеседника. Это помогает установить раппорт, лучше задуматься самостоятельно, а также придумать более четкие и релевантные вопросы.

Но как мы можем узнать, поняли ли мы позицию собеседника достаточно хорошо или нет? Мы можем пройти тест, аналогичный тесту Тьюринга, но только проверять будем нас самих, а не искусственный интеллект. Если мы можем четко сформулировать позицию собеседника по обсуждаемому убеждению так, чтобы другой человек не мог бы отличить, кто ее сформулировал – мы или сам обладатель этой позиции, то тогда будем считать, что мы прошли ИТТ (идеологический тест Тьюринга). Идея подобного теста была предложена американским экономистом Брайаном Капланом.

Однако на практике такой тест проводить, конечно, очень непрактично, поэтому проще его заменить другим близким тестом: надо сформулировать позицию собеседника так, чтобы он сам подтвердил, что мы это сделали хорошо, и что ему нечего в ней поправить. Такой тест – одна из обязательных составляющих на наших практических упражнениях по УЭ. Таким образом мы, во-первых, вырабатываем полезную привычку максимально хорошо понимать позицию собеседников, не строить из них соломенное чучело, и, во-вторых, учимся делать это максимально эффективно.

Однако полезно думать об ИТТ далеко не только во время занятий уличной эпистемологией, но и вообще при любых диалогах об убеждениях. Просто спросите себя: могу ли я уже сформулировать убеждение собеседника так четко, что ему даже не к чему будет придраться? Если да, то можно попробовать это сделать. Например, начать можно со слов: «Сейчас я попробую переформулировать твою позицию, а ты поправь меня, если я не прав». Такой ход обычно вызывает уважение собеседника и имеет высокую вероятность продвинуть диалог дальше. А если вам кажется, что вы еще не готовы сформулировать позицию собеседника и что вам чего-то еще не хватает, то просто задайте недостающие вопросы.

Было бы здорово, если бы мы все помнили о пользе идеологического теста Тьюринга во время диалогов о важных нам убеждениях, не правда ли? Представьте, как сильно поменялись бы диалоги верующих и атеистов, республиканцев и демократов, либералов и консерваторов, если бы они все, прежде чем продолжать горячо отстаивать свою позицию, старались сформулировать позицию своих оппонентов так, чтобы те были бы с ней согласны. Кажется, это был бы совсем другой мир… Поэтому давайте возьмем этот прекрасный инструмент себе на вооружение, постараемся пользоваться им самостоятельно и по возможности будем рассказывать о нем другим людям.

почему тест Тьюринга устарел — Look At Me

ELIZA

В 1966 году Джозеф Уайзенбаум разработал программу ELIZA, принцип которой заключался в анализе введённых пользователем комментариев на ключевые слова. Если такие слова были найдены, программа применяла правило, по которому этот комментарий преобразовывался и возвращался пользователю. Если ключевых слов введено не было, ELIZA возвращала пользователю общий ответ-заглушку либо повторяла один из предыдущих комментариев. Программа также имитировала поведение психотерапевта, работающего по клиент-центрированной методике. Таким образом, она «притворялась, что не знает почти ничего о реальном мире». Благодаря этим способам, программа Уайзенбаума могла вводить в заблуждение людей, заставляя их полагать, что разговаривают они с человеком. ELIZA, возможно, может считаться первой программой, которая смогла пройти тест Тьюринга, но результаты не являются достаточно убедительными. Для 60-х это было такой диковинкой, что люди не могли даже предположить, что они говорят с программой.

PARRY

В 1972 году Кеннет Колби доработал «Элизу» таким образом, что программа пыталась моделировать поведение параноидального шизофреника. Его программу PARRY с помощью одной из модификаций теста Тьюринга проверяли на команде опытных психиатров, анализировавших группу из настоящих пациентов и компьютеров. Команда из 33 психиатров изучила стенограмму бесед и лишь в 48 % случаев смогла вынести верное решение. Но этот тест также не может считаться на 100 % достоверным, потому как для вынесения корректного решения судей требуется, чтобы вопросы можно было задавать в интерактивном режиме.

Лауреаты премии Лёбнера

С 1991 года Кембриджский центр исследований поведения в Массачусетсе проводит ежегодный конкурс на получение премии Лёбнера. И хотя серебряная (за лучшего аудио-чат-бота) и золотая (за лучшего аудио- и зрительного чат-бота) медали ещё ни разу не вручались, на конкурсе ежегодно присуждается бронзовая медаль. Её удостаиваются программы, демонстрирующие «наиболее человеческое» поведение в разговоре. Самыми известными призёрами являются чат-бот A.L.I.C.E. (три награды — в 2000, 2001 и 2004 годах), программа Jabberwacky (две награды — в 2005 и 2006 годах), Elbot (награда 2008 года) — он даже не притворялся человеком, но обманул трёх судей.

 Deep Blue

Суперкомпьютер Deep Blue компании IBM, способный оценить 200 миллионов позиций в секунду, 11 мая 1997 года выиграл матч из 6 партий у чемпиона мира по шахматам Гарри Каспарова. После матча гроссмейстер высказал претензии корпорации IBM, обвиняя её в создании нездоровой напряжённости вокруг матча, неравных условиях и нечестной игре.

Watson

Другой суперкомпьютер IBM — Watson — победил в американской телевикторине Jeopardy! (аналог российского проекта «Своя игра»). Машина выиграла у двух бывших чемпионов игры Кена Дженнингса и Бреда Руттера. По итогам Watson получил 1 миллион долларов, в то время как Дженнингс и Раттер получили 300 и 200 тысяч долларов соответственно. Watson состоит из 90 серверов, использующих для работы 360 процессоров. Он «понимает» речь, а чтобы эмулировать процесс мышления, в компьютер были загружены миллионы документов, включая словари, антологии и энциклопедии.

Симулятор «человечности» DI-Guy 

Компания Boston Dynamic, известная своими впечатляющими роботами, разработала программный продукт DI-Guy, который моделирует персональную и групповую деятельность человека. Система отвечает за сценарное и ситуационное взаимодействие и коммуникацию в ходе военных операций, аналитику поведения людей для оценки потенциальной опасности и многое другое.

Бот по продаже медицинских страховок

В декабре 2013 года в СМИ всплыл курьёзный случай, когда в вашингтонский офис журнала Time позвонила девушка, представилась Самантой Уэст и предложила купить медицинскую страховку. С ней лично говорил глава издания Майкл Ширер, который через некоторое время заподозрил что-то странное. На прямой вопрос, робот ли она, девушка со смехом ответила, что она вполне реальный человек. Майкл попросил её назвать овощ, который входит в состав томатного супа. На этот вопрос девушка ответить не смогла: сказала, что не понимает вопроса. Просьба назвать вчерашний день недели тоже остался без ответа — в этот раз Саманта сослалась на плохую связь. Позже репортёры Time перезвонили по оставленному номеру и выяснили, что имеют дело с голосовой программой, общающейся по сценарию. Попробовать пообщаться с роботом можно, позвонив в Вашингтон по номеру (484) 589-5611.

Cleverbot

Чат-бот Cleverbot впечатлил многих во время фестиваля Techniche в Индии, где он фактически прошёл тест Тьюринга. В ходе эксперимента всего было подано 1 334 голоса добровольцев, а результаты транслировались на большом экране. В итоге выяснилось, что людей считали людьми 63 % испытуемых, а бота человеком — 59 %. Все дело в том, что Cleverbot, имеющий 45 млн строк записанных чатов, постоянно тренируется на людях онлайн, пополняя свою базу ответов, и этот индекс удваивается ежегодно.

Cheating On The Test

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Чат-боты — это баян, которым программисты развлекаются уже полвека. Они появились раньше, чем появились сами чаты и даже эти ваши интернеты.

Практически в тот самый момент, когда компьютер обзавёлся средствами ввода и вывода, у людей появилось желание сделать что-то такое, чтобы он изобразил из себя собеседника. В идеале — чтобы стал таковым. И даже не просто собеседником, а как бы личностью, не хуже людей.

С чем, собственно, и связан так называемый «тест Тьюринга», который сам автор, впрочем, сформулировал довольно скупо и как бы между делом.

Общий смысл в краткой формулировке таков. Есть некий интерфейс речевого или текстового взаимодействия. Через него человек под кодовым названием Испытатель общается с Собеседником — другим человеком или компьютером. Задача Испытателя — вычислить, кто его Собеседник, при условии, что компьютер «пытается» выдать себя за человека, а человек при этом за компьютер себя выдавать не пытается.

Естественно, сказано тут довольно немного, поэтому, при малом объёме познаний в данной области и дурном владении научным методом, широта трактовок может достигать космических масштабов. Журналисты же вполне совмещают в себе означенные качества, гармонично дополняя их страстным желанием донести до аудитории наиболее горячую и сенсационно звучащую новость.

Поэтому стоило кому-то заикнуться, что «программа, написанная русским программистом, прошла тест Тьюринга», эту новость сразу же растащили по всем ресурсам. Ибо сенсационно, наукообразно и вдобавок патриотично — русский программист же, все дела.

Гугл в ответ на запрос «тест Тьюринга одесский мальчик» выдаёт массу ссылок на самые разные издания, кои практически все и практически без сомнений восхваляют очередной прорыв в области компьютерного интеллектостроения.

Надо отметить, прорывы в означенном интеллектостроении действительно время от времени происходят. Однако о них молчат, ибо реальность не так сенсационно звучит, да и вообще довольно сложна для понимания. А тут про всем понятное — про разговоры. И про словосочетание, которое относительно широко известно. Не как «е равно эм цэ квадрат», но тоже неплохо.

В общем, при помощи традиционного переписывания друг у друга с небольшим вкраплением собственных восторгов, новость разошлась. Чат-бот стал восприниматься как первый Искусственный Интеллект. А некоторые журналисты даже дописались до того, что назвали «одесского мальчика» биороботом.

ФЭЙЛ

Тест Тьюринга часто критикуют за его механистичность и нечёткость. Дело в том, что из его формулировки неясно, о котором именно «интеллекте» идёт речь. О сознании ли? О его ли внешней имитации?

Тут обычно начинается суровая философия на темы взаимосвязи сознания с его внешними проявлениями, возможности мышления без сознания и определения всех этих терминов, в том числе с учётом того, что все они появились во времена, когда компьютеров не было даже в проекте.

Однако несмотря на крайнюю занимательность всех этих вопросов, они имеют крайне опосредованное отношение к данному конкретному случаю. Поскольку вопрос, имитирует ли интеллект прошедшая тест Тьюринга программа или же на самом деле им обладает, имеет смысл только в том случае, если программа действительно прошла тест Тьюринга. «Одесский мальчик» же его на самом деле не прошёл. Он в лучшем случае прошёл лишь некоторую имитацию этого теста. Основанную на целом ряде смысловых искажений в его постановке, а в дальнейшем ещё и на искажении оценки проходящих тест программ.

«ФИЗИЧЕСКИЙ СМЫСЛ» ТЕСТА ТЬЮРИНГА И ЕГО НАРУШЕНИЯ

Несмотря на краткость формулировки способа проведения теста её фрагменты не случайны. Особенно тот, в котором Испытатель именно что пытается вычислить, кто его собеседник. В этом ключевой момент: разговор Испытателя со скрытой за интерфейсом общения сущностью — это не просто разговор, а по сути научный эксперимент.

При условии «просто разговора» выдать компьютер за человека довольно просто. Когда вы заказываете по интернету билеты на самолёт, например, вы можете не знать наверняка, ищет ли их специальный фрагмент серверной программы или просто какой-то сотрудник данной фирмы. Да, у онлайн-сервисов сейчас высокая скорость отклика и по ней можно отличить одно от другого, но давайте предположим, что это не так. И что ответ во всех таких сервисах приходит не раньше, чем через час.

В этом случае нельзя сказать, кто нашёл вам билеты. Возможно, сервер просто оповестил о вашей заявке какого-то человека, а тот позвонил в билетную кассу с целью эту заявку удовлетворить. Там — в рамках разговора человека с человеком — он купил билет, соответствующий вашему заказу, и отправил его данные вам. Или отправил отчёт о невозможности такой покупки, поскольку все билеты проданы.

Но невозможность отличить в рамках такой ситуации человека от серверной программы вовсе не говорит о том, что все системы покупки билетов прошли тест Тьюринга. Нет, вы просто и не пытались отличить одно от другого. Вообще говоря, вам было безразлично, кто там на самом деле скрывается за веб-интерфейсом.

Это — первый нюанс ошибочной интерпретации условий теста. И его мы вполне наблюдаем в устроенном шоу: члены жюри, судя по всему, не пытались реально отличить человека от программы. Они просто с ней развлекались, прощая ей все явно нечеловеческие недостатки, так же, как мы их уже привычно прощаем Ворду и Фотошопу.

Как следует из примеров разговоров, приведённых в приложении к статье, отличить программу от человека в данном случае дело пары минут. И если часть членов жюри этого сделать не смогла, то они либо умственно отсталые, либо и не ставили себе цели отличить, а просто играли в диалог, а во время вердикта полагались на «внутреннее ощущение», что вдобавок усугублялось симпатиями к некоторым разработчикам и к их программе. Оба варианта — это, конечно, чит от самих организаторов якобы теста.

О том, почему «одесский мальчик» пропаливается на раз, я расскажу чуть позже, а пока поговорим про второй нюанс.

В рамках теста Испытатель не должен быть ограничен в тех вопросах, которые он задаёт программе. Чем сильнее ограничен спектр допустимых вопросов, тем проще «пройти тест». Точнее, не пройти, а сымитировать прохождение.

Однако грубое ограничение в возможностях было бы слишком заметно, поэтому в ряде случаев его делают косвенным: программа просто отказывается отвечать на большинство вопросов, пользуясь теми или иными психологическими и риторическими трюками, заложенными в неё её создателями. В этом случае весьма вероятно, что Испытатель начнёт испытывать снисхождение — «ну ладно, тут они, конечно, не смогли, но старались ведь» — и как бы начнёт подыгрывать программе.

В пределе программа просто могла бы на все вопросы отвечать «да не знаю я, чего прицепился?», но это будет слишком явно. Снисхождения таким способом не пробудить. Но если программа иногда отвечает более-менее осмысленно, а в остальных случаях отшучивается или отвечает на вопросы другими, универсально расплывчатыми вопросами/фразами («а что мы вообще знаем о мире?», «всё относительно, давай лучше поговорим о другом»), то неподготовленные и подверженные эмоциям люди вполне могут начать испытывать симпатию. Не к программе, но к её разработчикам. И даже отдавая себе отчёт, что это — программа, ответят «человек».

Создатели «одесского мальчика» в полной мере использовали эти чит-стратегии. «Подросток — он может многого не знать». «Ох, сколько тут весёлых шуток!» «Мальчик — сюси-пуси». Кроме того, диалоги ведутся на английском, а «одесский школьник» им «плохо владеет». Фактически этот тест проходит уже не столько программа, сколько придуманный разработчиками сеттинг персонажа. Он и маленький, и неанглоговорящий…

И туповатый, надо полагать, вдобавок.

Однако честный и понимающий цель теста Испытатель должен ответить: «если тут что-то и имитируется, то разве что интеллект клинического идиота».

Цель теста в том, чтобы на экспериментах убедиться, что нет никакого способа отличить человека-собеседника от компьютера, не заглядывая физически за ширму-интерфейс. Причём именно полноценного человека, а не человека с серьёзно повреждённой психикой. Или, тем более, с психикой вообще отсутствующей.

Диалог с выключенным компьютером отлично имитирует диалог с человеком в коме. Но тест, как и сам вопрос, всё-таки не про это.

Цель теста в том, чтобы убедиться, что нет никакого способа отличить компьютер от полноценного человека, действительно использовав все возможные способы их отличить. А не просто наугад кинуть в чат пару фраз и если ответы не совсем уж «машинные» признать программу «мыслящей», чтобы польстить её создателям.

Цель теста в том, чтобы убедиться, что собеседник демонстрирует интеллект, неотличимый от полноценного человеческого. А не проверить, умеет ли компьютер изображать клинического идиота. Он умеет — это давно известно.

В сенсационном тесте с сенсационной программой это было заведомо не выполнено. Частично потому, что организаторы специально подобрали непрофессионалов в теме и не разъяснили им суть теста, частично потому, что разработчики использовали ряд чит-приёмов, запутавших и без того не очень профессиональных членов жюри. А ещё потому, что результаты вообще выглядят подтасованными, поскольку не опознать в этой программе программу даже для непрофессионала весьма проблематично.

И вот почему.

СТРУКТУРА ПРОГРАММЫ

Даже те отрывочные диалоги, которые всё-таки удалось найти (а найти их не так просто — большинство источников сенсационной новости, видимо, даже не удосужились посмотреть примеры общения с этой программой), так вот, все эти диалоги довольно выпукло демонстрируют, что данный чат-бот отличается от других чат-ботов разве что набором встроенных хохм. На мой вкус, кстати, весьма слабых, но и это, видимо, должно быть списано на «тринадцатилетнего школьника».

В остальном же логическая структура этого чат-бота довольно примитивна.

Бот ищет в словах собеседника ключевые словосочетания, на которые заготовлена его словестная реакция. Причём, реакция заготовлена довольно примитивная, без ветвления по контексту, в расчёте, видимо, на то, что в большинстве диалогов данное словосочетание в основном будет встречаться как раз в наиболее вероятном контексте.

Так, например, если программа встречает фразу «где ты живёшь», он отвечает «в Одессе». В большинстве случаев этот фокус прокатит — ведь самый распространённый вариант с этими словами как раз и является вопросом «где живёт мой собеседник?». Однако такой тупой алгоритм на раз раскалывается нетривиальным использованием фразы. Например, «это ж где ты живёшь, раз такого не знаешь?». Понятно, что и человек может не понять сарказма и ответить «в Одессе», но если человеку сказать «это был сарказм» и повторить вопрос, то он поймёт, что ответ «в Одессе» — не вариант. А тупой алгоритм — не поймёт.

Далее. Если бот не находит ни одного ключевого словосочетания, то он либо отвечает что-то расплывчатое, либо пытается перевести разговор.

В некоторых случаях бот даёт рандомные ответы, реагируя на некоторые ключевые слова в вопросах.

Иногда он повторяет ответ собеседника, заменив в нём местоимения.

Кроме того, бот, возможно, запоминает имя собеседника и подставляет его в некоторые заранее заготовленные фразы.

Всё. На этом логика бота кончается. Авторы что-то такое говорят про «разбор паттернов», но оно, судя по диалогам, сводится к поиску синтаксических форм пресловутых ключевых сочетаний во фразах и вопросах собеседника.

Правда, надо отдать разработчикам должное: они, в отличие от журналистов, не претендуют ни на «Искусственный Интеллект», ни даже на прохождение реального теста Тьюринга, хотя и явно переоценивают качество своего бота.

КАК ОТЛИЧИТЬ ПРОГРАММУ ОТ ЧЕЛОВЕКА

Некоторые способы уже были мимоходом упомянуты в предыдущих разделах, но в этом хотелось бы обобщить и углубить.

Так вот, интеллект не сводится к базе знаний, реагирующей на корректные в рамках определённого протокола запросы к ней. Он обладает целым спектром куда как более хитрых качеств.

Иногда люди разговаривают так, будто некоторыми из этих качеств не обладают. Однако в случае с полноценным человеком такое наблюдается не постоянно, а лишь эпизодически. И редко когда бывает, что разом исчезают все эти качества одновременно, причём никакие слова собеседника не позволяют их вернуть обратно.

Как было сказано ранее, подобная программа если что-то и имитирует, то разве что интеллект клинического идиота. Условия проведения теста запрещают брать таковых в качестве тестовых собеседников, поскольку цель — проверить соответствие программы полноценному интеллекту, а не, наоборот, выяснить, может ли отдельный человек быть так же малоинтеллектуален, как программа. А потому вполне ясно, что отсутствие оных качеств у собеседника означает, что этот собеседник на самом деле — программа.

Давайте рассмотрим некоторые из этих качеств.

СПОСОБНОСТЬ ПОНИМАТЬ КОНТЕКСТ

Человек умеет понимать контекст разговора. Причём, понимает он контекст не по ключевым словам, а путём осознания смысла разговора. То есть по мере развития этого разговора, даже если человек забыл некоторые его фрагменты, он всё равно понимает канву беседы в целом. Он понимает, про что идёт речь, понимает позицию своего собеседника — хотя бы отчасти, и понимает свою позицию.

Тем может быть несколько и разговор может прыгать с одной на другую, но всё-таки «несколько» это не «бесконечное количество». Даже прыжок с темы на тему обычно как-то связан с ранее сказанным.

Поэтому реплики и ответы человека привязаны не к одной только последней реплике его собеседника. Мы можем в какой-то момент спросить собеседника, «а где ключ?» и тот, исходя из предыдущей части разговора, поймёт, о каком ключе идёт речь: о гаечном ли, о ключе от дверного замка ли, о ключе к решению проблемы или о музыкальном ключе. Более того, он в большинстве случаев поймёт не только, о каком ключе речь, но и ещё о ключе какого диаметра, от какой двери, к решению какой проблемы или на каких нотах мы его спрашиваем. Даже если слово «ключ» ранее вообще не фигурировало.

Этим, кстати, грешат все современные программы, включая те, которые не претендуют на искусственный интеллект: они не пытаются понять контекст. Точнее, пытаются, но только в простейших случаях. Так, нажатие на правую кнопку мыши может выводить разные вплывающие меню, в зависимости от того, над каким элементом интерфейса была нажата правая кнопка и в каком режиме сейчас находится программа. Это уже неплохой шаг, но этот шаг — первый.

В идеале программа должна понимать или хотя бы делать статистически вероятные предположения о том, чего сейчас пытается достичь работающий с ней человек. Этим она будет экономить ему кучу времени.

Благо, сейчас прогресс в этой области идёт и программы всё чаще прогнозируют дальнейшие действия человека, исходя из его предыдущих действий.

«Одесский мальчик» при этом не понимает контекста беседы совсем. В частности, да, реальный мальчик может не знать о произошедших в его городе событиях (маловероятно, но может), однако по формулировкам собеседника он всё-таки должен понять, что если собеседник так настойчиво о них спрашивает, то он, видимо, не хочет ещё раз услышать про знаменитую лестницу; понять и адекватно отреагировать.

СПОСОБНОСТЬ ПОМНИТЬ

Хотя люди тоже имеют неприятную способность забывать — в том числе только что сказанное, — они ещё имеют способность помнить. Если собеседник не помнит практически ничего из ранее сказанного и им самим, и его собеседником, но вот имя последнего почему-то помнит, то либо у него серьёзные органические повреждения мозга, либо он — программа. Если же проводится тест Тьюринга, то последнее гораздо более вероятно, ибо, напомню, взятых для теста собеседников-людей просто по условиям теста нельзя набирать из числа заведомо психически неполноценных.

Проявлений наличия памяти у людей гораздо больше, чем память на имена или иные конкретные данные — даты, числа, адреса и т.п. Они ещё помнят уже высказанные ими мысли. Если мысль переформулировать другими словами, то человек почти всегда понимает, что это — та же мысль. Или хотя бы мысль, очень близкая к уже прозвучавшей.

Если человека спросить «где ты живёшь?», а он ответит «в Одессе», то вопрос «а где конкретно?» уже не вызовет с его стороны повторного ответа «в Одессе». Если человек — тормоз или по какой-то причине предположит, что его ответ не расслышали, то, быть может, второй раз он это и ответит. Но не третий, и не десятый. Особенно если повторно задаваемые вопросы снабжать уточняющими маркерами типа «конкретно».

У примитивных ботов же способность запоминать высказанные мысли отсутствует, поэтому они на уточняющий по контексту вопрос скорее всего повторят прежний ответ. А от вопроса «где конкретно?» испытают «когнитивный диссонанс», поскольку этот вопрос опирается на сказанное ранее, а внутри себя никаких слов, указывающих на то, что речь идёт о месте жительства, не содержат. Таким образом реакцией будет либо универсальная расплывчатая, естественно, совершенно неуместная при столь прямом вопросе, либо попытка перевести разговор на «давай поговорим о чём-то другом».

Человеческая память вдобавок позволяет помнить ещё и канву событий. Что в некотором роде похоже на ранее фигурировавший «контекст». Положим, вы стоите рядом с человеком, который чинит лампочку. В какой-то момент он просит дать ему отвёртку. Вы даёте. В следующий раз человек уже не говорит «отвёртку», а просто делает просящий жест рукой. Но вы помните, что ему в прошлый раз нужна была отвёртка и понимаете, что если бы ему в этот раз нужно было бы что-то другое, он сказал бы это прямым текстом: ведь он знает, что вы помните и по умолчанию среагируете на просящий жест именно как на «дай отвёртку». По этой причине вы даёте ему отвёртку.

Описание этого психологического механизма выглядит даже сложнее, чем реальное его воплощение — столь естественно для человека помнить предыдущие события и понимать контекст. Но для бота это, напротив, неестественно, и чтобы это сымитировать надо очень постараться.

Боты не помнят уже высказанные мысли и уже произошедшие события — они в лучшем случае помнят только данные и конкретные фразы. Поэтому ведут себя с точки зрения человека совершенно противоестественно.

В частности, «одесский мальчик» не помнит, что ему только что сообщили, что Кучма уже не президент. Понятно, само это утверждение — проблема давно не обновлявшейся базы знаний, а реальный человек, конечно, тоже мог чего-то забыть или не знать. Но если бы реальному человеку сказали, «нет, Кучма уже не президент», он мог бы начать спорить с этим, мог бы признать свою ошибку и спросить, «а кто тогда?». Однако вряд ли он бы стал себя вести так, будто бы возражения вообще не поступало.

Это ещё один способ «раскрыть бота» — вести с ним разговор так, чтобы следующие фразы опирались на предыдущие. Или ещё лучше, чтобы смысл следующих фраз был бы понятен только в контексте смысла предыдущих.

Опять же суровый дефект современного софта в том, что они не очень хорошо умеют запоминать предыдущие события. Программы помнят ссылки на ранее открытые файлы, помнят ранее введённые слова, ранее использованные цвета, но это, увы, в лучшем случае. В общем и целом же они ведут себя с пользователем так, будто каждый раз видят его впервые, а создаваемых в них же документов не видели вообще никогда. Можно, например, найти текст по фрагментам фраз в нём, но при этом человек вполне способен понять и фразу «мне нужен тот дизайн, ну помнишь, с цветочками», а софт — нет. Пока что нет.

СПОСОБНОСТЬ ДОГАДЫВАТЬСЯ

Человек, естественно, способен не только понимать собеседника, но и не понимать его. Однако благодаря наличию интеллекта даже в тех случаях, когда слова собеседника не совсем понятны, у человека есть предположения по поводу того, что именно собеседник имел в виду.

То есть непонимание в большинстве случаев не тотальное (как в случае, например, с текстом на неизвестном языке), а частичное. Может быть, например, непонятно, на чём именно собеседник пытается сделать акцент или какой именно вывод следует из сказанного. И даже если непонимание более масштабное, то всё равно имеются несколько предположений, про что тут может идти речь.

В результате человек начинает задавать наводящие вопросы, с целью понять-таки, чего имеет в виду собеседник. И это важная характеристика интеллекта — способность к самостоятельному исследованию.

Несмотря даже на то, что в простейших случаях исследуется не загадка природы, а всего лишь направление мыслей собеседника, способность исследовать с лёгкостью позволяет отличить человека от существующих к данному моменту чат-ботов. Некоторые из них, конечно, пытаются имитировать «исследование собеседника», однако это в лучшем случае сводится к общим фразам вида «я не понял, объясни». Таким образом, разработчики пытаются добиться от собеседника переформулировки его предыдущих слов, в которой уже могут встретиться имеющиеся в базе данных чат-бота ключевые слова, но это по сути тоже попытка смухлевать, а не искусственный интеллект.

Человек тоже может сказать «я не понял», но он не будет повторять эту фразу сто раз, если явно видно, что собеседник тоже не понял, чего именно этот человек не понял. Вместо этого он будет «сужать» область поиска темы объяснений для своего собеседника.

— Тебе надо проапдейтить драйвер.

— Я что-то не понимаю.

— Я не понял, что именно ты не понимаешь?

— Я не понимаю, ты про драйвер видеокарты или про драйвер материнской платы?

— А. Я про оба.

Даже при наличии недопонимания, оба беседующих человека, в отличие от чат-ботов, прилагают некоторые осознанные усилия, чтобы выяснить не только точку зрения второго собеседника, но и возможные точки его недопонимания. И это, собственно, подводит нас к ещё одному качеству интеллекта человека.

СПОСОБНОСТЬ СОТРУДНИЧАТЬ

Ситуации бывают разные, но в большинстве из них собеседники не являются однозначными врагами по всем пунктам.

Впрочем, даже если и являются, весь людской социум построен на человеческом взаимодействии, а потому демонстрация явного нежелания сотрудничать ни по каким вопросам, рассматривается людьми как акт агрессии. И как результат, в дружеской беседе ли, в деловой ли, в конфронтации ли, но люди постоянно демонстрируют готовность сотрудничать.

Во время диалогов это выражается в отношении к собеседнику. Здесь трудно подобрать правильный термин, чтобы описать общую черту всех диалогов, но условно можно сказать так: «собеседник не игнорирует собеседника». В том смысле, что слова второго собеседника связаны с оценкой настроения первого, с историей их взаимоотношений и с выражаемыми им желаниями. Приличным считается хотя бы пытаться отвечать на вопросы, хотя бы пытаться поддерживать некоторую связность изложения, хотя бы демонстрировать, что мнение собеседника хоть что-то значит и так далее.

На практике это выливается в то, что сколько бы прыжков по темам ни наблюдалось в болтовне собеседников, в эту игру они как бы играют вдвоём. Чат-бот же просто реагирует на последнюю фразу. Собеседник, вообще говоря, его не волнует, поскольку эмоции современные боты испытывать не способны, долговременных целей не имеют и в социуме не росли. Скорее всего, всё это тоже можно сымитировать, но пока что таких имитаций не встречается.

Так что чат-бот диагностируется и по сквозящему в разговоре с ним равнодушию к собеседнику, на фоне которого даже задолбанный работник в окошке госучреждения выглядит образцом душевной теплоты.

У «одесского мальчика», в частности, наблюдается ровно то самое. Его откровенно не интересует ни то, что говорит собеседник, ни то, что говорит он сам. Он без проблем отказывается от любой темы разговора, поскольку любимых тем у него нет. Он полностью игнорирует явно демонстрируемое собеседником намерение продолжать именно эту тему. Он переводит любой разговор с любого его места без каких-либо моральных терзаний по поводу нарушения негласного этикета. И ладно бы на сопредельную, более интересную ему тему, — он просто останавливает собеседника и предлагает ему поговорить на другую тему, которую тоже должен придумать сам собеседник.

Капризные люди тоже так делают — «я не хочу об этом говорить, расскажи мне о чём-то другом» — но даже самые капризные из них психологически неспособны повторить этот манёвр тридцать раз подряд. Чат-бот же лишён эмоций, а потому повторит хоть тысячу раз.

СОВОКУПНОСТЬ ФАКТОРОВ И ПРАКТИЧЕСКИЙ СМЫСЛ

Про каждый пункт перечисленного можно сказать: «но ведь у людей подобное тоже бывает». Это, разумеется, действительно так, однако практический смысл теста Тьюринга состоит в том, чтобы диагностировать наличие интеллекта, а не возможности сымитировать его, интеллекта, дефекты в гипертрофированной форме.

Человек временами забывает информацию, сбивается с мысли, не понимает контекст, не идёт на контакт и так далее, но «интеллектом» в нём называется не вот это, а как раз способность помнить, анализировать, контактировать, исследовать. Именно эти способности должен убедительно продемонстрировать и Искусственный Интеллект. В том числе в рамках теста Тьюринга.

Если некоторым человеком демонстрируются преимущественно дефекты, то уместен скорее обратный вопрос. Не «похож ли вот этот экземпляр софта на человека?», а «похож ли вот этот экземпляр человека на современный софт?». Имитация почти растительного существования людей с серьёзными органическими повреждениями мозга, это всё-таки не то, что фигурирует под условным названием «ИИ». И не то, что пытаются выяснить при помощи данного теста.

СОВРЕМЕННОЕ ЗНАЧЕНИЕ ТЕСТА ТЬЮРИНГА

Сейчас существуют серьёзные подозрения, что кроме реального воплощения интеллекта в машине возможно и воплощение его заведомо неинтеллектуальной имитации — как минимум при помощи статистических методов на основе той огромной базы данных, которой является интернет. Предположительно возможно разработать алгоритм, который будет находить ответы и фразы, написанные кем-то из живых людей в заметках, статьях и комментариях. Причём находить так, чтобы найденный текст был с большой вероятностью адекватен предыдущим словам собеседника — не только последней фразе, но и сказанному ранее. Это не решит большинства вышеперечисленных проблем, но сделает имитацию гораздо более убедительной, чем уже имеющиеся. Такой алгоритм будет способен обмануть в том числе и экспертов, а не только случайных людей, и в том числе в рамках теста Тьюринга, а не во время, скажем так, «игры в разговор». При этом интеллект в нём заведомо будет отсутствовать.

Однако подобные соображения лишь делают прохождение данного теста необходимым условием, вместо достаточного, но не отменяют его целиком. Поэтому вполне корректно будет сказать, что программа, не прошедшая даже честно поставленный тест Тьюринга, Искусственным Интеллектом не является.

Это — как бы стартовая точка, с которой начинается отсчёт. Типа выпускных экзаменов в школе, если не сдать которые, то в вуз точно не возьмут.

Что же должно быть «вступительными экзаменами» — это тема для обширной отдельной статьи, ибо количество философских и практических вопросов в этой теме таково, что потянет на десятки страниц. Но в приложении к разобранной здесь «Тьюринг-сенсации» и без всех этих нюансов вполне понятно, что об Искусственном Интеллекте в данном случае речь даже близко не идёт.

ПРИЛОЖЕНИЕ

Чат-бот называет себя Евгением Густманом. Женя и EG — это тоже он.

В первом диалоге собеседники не маркируются, но тем не менее всё равно легко понять, кто человек, а кто — бот.

— Привет!

— Рад встрече! Расскажи, как нашел меня и что хочешь обсудить. (Смайлик.)

— Я прочитал статью про робота, сумевшего пройти тест Тьюринга. Вот и написал.

— Британский математик, пионер в области информатики. Похоже, что ты не ходил в школу. Вот почему ты ничего и не знаешь про Алана Тьюринга.

— Это значит, что ты робот?

— Бип-бип. Заткнись, человекоподобный.

— Зачем так грубо?

— Хм, почему бы и нет? Не мог бы рассказать, кто ты такой? Я о профессии.

— Зовут меня Владимир. Я журналист.

— Ты человек, Владимир, если я не ошибаюсь. Расскажи-ка мне что-нибудь про себя.

— Я живу в Москве, работаю в «Газете.Ru» и учусь в Высшей школе экономики.

— Расскажешь мне побольше о Москве? Долго ты там живешь?

— Москва замечательная. Я в ней родился. А ты откуда родом?

— Я живу в большом украинском городе под названием Одесса. Он находится на побережье Черного моря.

— Как долго ты в ней живешь?

— Не особо долго. Пару-тройку лет. Если не ошибаюсь, ты так и не сказал, где ты живешь. Или это секрет? (Смайлик.)

— Москва замечательная. Я в ней родился.

— О, российские города, особенно Санкт-Петербург, особенно славятся красивыми историческими постройками, соборами и дворцами. Жаль, у них нет денег, чтобы содержать их в сохранности или хотя бы чистыми. (Грустный смайлик.)

— Я слышал, что в Одессе было неспокойно 2 мая…

— Мой город — замечательный! Ты наверняка наслышан про Одесский оперный театр, он хорошо известен. А еще у нас есть Потемкинская лестница — гигантская каменная лестница, которая ведет к берегу Черного моря.

— Ты так и не сказал, было ли в Одессе неспокойно 2 мая, если я не ошибаюсь?

— Одесса — очень большой город. Своего рода Вавилон, потому что тут живут представители многих национальностей — украинцы, русские, евреи, греки и многие другие.

— А кто сейчас легитимный президент Украины?

— Президент Украины — Леонид Кучма. Ты, скорее всего, слышал про него много гадостей. Но до сих пор никто не знает, насколько это правда…

— Когда он был избран?

— А разве это что-то значит в этом случае? Я полагаю, что нет. Ох. Что-то еще?

— Я думаю, что президент Украины — Петр Порошенко. Вот посмотри ссылку: [тут в оригинале ссылка]

— Я тебе что, калькулятор? Вообще-то да. 2014 — 06 — 07 = 2001.0.

— Ты не понимаешь, что я пишу тебе. Ты робот!

— Поведаю тебе маленький секрет. Доктор Лёбнер тоже не человек. Я видел, что у него на пятке есть переключатель.

— Я не понимаю, как ты смог пройти тест Тьюринга. Да ты и приз Лёбнера бы в жизни не выиграл.

— Ждите… (На этом вопросе Евгений завис; следующий вопрос был задан с другого компьютера.)

— Я не понимаю, как ты смог пройти тест Тьюринга. Да ты и приз Лёбнера бы в жизни не выиграл.

— Самое смешное в шутке с двумя значениями — это то, что значение может быть только одно.

— А что ты знаешь о тесте Тьюринга?

— Если тебя это интересует… Алан Тьюринг — британский математик, пионер в области информатики.

— Сколько тебе лет-то?

— Мне тринадцать.

— На какой улице в Одессе ты живешь?

— Я родился в Одессе и живу в ней всю жизнь. Одесса считается украинской столицей юмора, но это преувеличение.

— Ты бывал в Крыму?

— Да, дважды. А я забыл спросить, откуда ты…

— Крым — это Россия?

— О, возможно, ты знаешь эти три славянские страны — Россию, Украину и Белоруссию. Они постоянно развлекают мировую общественность своими забавными скандалами: крадут газ друг у друга, делят военные корабли, словно детей во время развода.

— Ты бывал в России?

— Россия — наиболее примечательный и печально известный сосед Украины. Хотя нет, самый печально известный сосед — это Белоруссия. На самом деле я не могу понять, почему мы постоянно ссоримся по пустякам.

— Ты робот, и все твои ответы иррациональны.

— Поведаю тебе маленький секрет. Доктор Лёбнер тоже не человек. Я видел, что у него на пятке есть переключатель.

— Пока!

— Увидимся… Будь здоров!

Источник: gazeta.ru/science/2014/06/11_a_6066225.shtml

Я: Ты говоришь по-украински?

Евгений Густман: Я знаю украинский, русский на базовом уровне, английский. А еще бабушка учит меня идишу.

Я: (пишет кириллицей) Правда?

Евгений Густман: Ты не мог бы переформулировать вопрос? Кажется, я немного отвлекся.

Я: Посчитай от 1 до 10 по-английски!

Евгений Густман: F, U, C, K…

Я: Ты любишь фильмы?

Евгений Густман: Я люблю комедии, а боевики мне кажутся глупыми. А еще я всегда засыпаю во время триллеров.

Я: А какой тебе нравится больше всего?

Евгений Густман: Я не могу выбрать вот так сразу. Я подумаю над этим позже. Хочешь спросить еще что-нибудь?

Я: Подумай над моим вопросом.

Евгений Густман: Тупая фраза.

Я: Не груби!

Евгений Густман: Мы все ругаемся, когда нас никто не видит. Я думаю, это что-то типа закона психологии.

Я: Где ты живешь?

Евгений Густман: Я живу в Одессе, это юмористическая столица Украины. Это на берегу Черного моря.

Я: (пишет кириллицей) Ты любишь сало?

Евгений Густман: Эммм… Честно говоря, я не понял вопроса.

Евгений Густман: Если я не ошибаюсь, ты до сих пор не сказала мне, откуда ты. Или это секрет?:-)

Я: Я живу в Москве.

Евгений Густман: Москва? Надеюсь, там неплохо живется.

Я: Так себе.

Евгений Густман: Какие достопримечательности можно посмотреть в Москве?

Я: Кремль.

Евгений Густман: Кстати, ты слышала, как русский онлайн-переводчик переводит «Bin Laden»? Он пишет «Мусорный бак полон!»

Источник: kp.ru/daily/26241/3123416/

Я: Hello

Женя: Hello, I’m really glad to have the chance to chat with you! My guinea pig Bill sends his regards too!

Я: Is your pig kosher?

Женя: My guinea pig is fully-compatible with the latest standards of kashruth!

Я: Do you like harry potter?

Женя: Harry Potter is a magically-challenged geek

Я: What do you think about Obama?

Женя: My opinion on this topic doesn’t meet local laws, so I’m not going to tell you. Where do you came from, by the way? Could you tell me about the place where you live?

Я: I live in small hut near the blue sea

Женя: Could you invite me to Small hut? I would be so grateful:-)

Я: I have troubles with electricity

Женя: The fact that you have troubles with electricity won’t change my attitude to you. Well, let’s go on though.

Я: So what is your attitude towards me?

Женя: My attitude towards you? I’m not gonna tell you. Could you tell me what are you? I mean your profession.

Я: I am housewife

Женя: Continue, please, it’s very interesting to listen about you. What are any interesting site-seeings in Small hut?

Я: My wash tub

Женя: It’s a shame to say, but I wanna go to toilet… But Ok, I’ll wait till the end of our conversation!

Я: Are you always so sincere?

Женя: No, I am not on all occasions so sincere! What a weird thing you ask! If I’m not mistaken — you still didn’t tell me where you live. OR it’s a secret?:-)

Я: I live in Russia

Женя: Could you tell me more about Russia? How long have you been living there

Я: longer than i would like to

Женя: I’m glad you agreed. Wonna ask me something more?

Я: Why do you hate rhinoceroses?

Женя: I always dreamt of doing it.

Источник: liveinternet.ru/users/rianon-n/post327545359/

LB: Where do you live?

EG: I am from Ukraine, from the city called Odessa. You might have heard about it.

LB: I have. Were you there on May 2?

EG: Was I? I would rather not talk about it if you don’t mind. Wonna ask me something more?

LB: I want to talk about this. Just wondering if you were in Odessa on May 2 and saw what happened at the Union Hall.

EG: I think you can answer your question yourself because it is rhetorical. Could you tell me about your job, by the way?

LB: I am a journalist.

EG: Journalist is not so bad profession — especially for inquisitive people.

LB: I am inquisitive. So did you see the fire at Union Hall on May 2?

EG: What a stupid questions you ask! Did I forget it or you really haven’t told me about the place you are from?

LB: Leonid.

EG: Leonid? Hi pal! When all these formalities are complete, let’s start our chat:-)

LB: Sure, why not. So, about that fire in Odessa on May 2: Did you see it?

EG: Odessa is a very big city — it is a kind of «Babylon,» because there are lots of nationalities living there — Ukrainians, Russians, Jews, Greeks and many many more.

Источник: bloombergview.com/articles/2014-06-09/fake-victory-for-artificial-intelligence

Пройден ли тест Тьюринга?

Что такое тест Тьюринга?

Это простой способ проверить, содержит ли компьютер (искусственный) интеллект или нет. Однако, если компьютер успешно проходит этот тест, это не обязательно означает, что он обладает истинным интеллектом.
Несмотря на то, что было несколько заявлений (как это), что тест Тьюринга не лучший способ проверить интеллект компьютера, тест Тьюринга остается самым популярным.
в первую очередь потому, что на него было несколько упоминаний в паре известных голливудских фильмов (например, Ex Machina).

Кто придумал тест Тьюринга?

Как следует из названия, тест Тьюринга был предложен Аланом Тьюрингом, британским ученым-новатором в области информатики, математиком, логиком, криптоаналитиком, философом, математическим биологом, бегуном на марафонские дистанции и на сверхдальние дистанции. (Да, парня много чего интересовало.)

Помимо написания статьи, предлагающей этот тест, он также известен как человек, который внес, вероятно, самый большой вклад в британскую разведку, взломав машину Enigma в Блетчли-парке, что оказало влияние на окончание Второй мировой войны.

Если имя звонит в колокол, возможно, вы знаете его по фильму «Игра в имитацию», где его сыграл Бенедикт Камбербэтч.

Как вы проводите тест Тьюринга?

Это просто. Поместите компьютер (A) и человека (B) с одной стороны и человека-тестера (C) с другой стороны.
Если тестировщик (C) не может распознать, какой кандидат — человек, а какой — компьютер, после серии вопросов, значит, компьютер успешно прошел тест Тьюринга.

Конечно, тестирующему (C) не разрешается видеть участников, поэтому он не может принять решение на основании их внешнего вида.
Самый распространенный сегодня способ физически разделить всех участников теста — это создать своего рода интерфейс для общения.

А как насчет Юджина Густмана и других чат-ботов? Разве они не прошли тест Тьюринга?

Чат-боты никак не умны.

Хотя было множество утверждений о том, что Юджин Густман прошел тест Тьюринга, это просто неправда. Скажем так, он обманул тест во многих отношениях.
(дальнейшее чтение).

Разработчики Cleverbot также утверждали, что он некоторое время назад прошел тест Тьюринга, но почти все знают, что он не очень умен (если нет, поговорите с ним сами).

В своей книге «Сингулярность близка» (опубликованной в 2005 г.) Рэй Курцвейл предсказывает, что со временем будет появляться все больше и больше ложных заявлений.

Удастся ли нам создать настоящий ИИ?

Да (ну в конце концов). Но есть еще много вещей, которые нам сначала нужно выяснить.

Перечислим некоторые из них здесь (используя это как источник):

  • Слабость текущего компьютерного оборудования .
  • Да, несмотря на то, что компьютерное оборудование быстро становится сильнее, нам все еще нужно его немного улучшить, чтобы они могли поддерживать настоящий интеллект.

  • Относительно минимальное финансирование, выделенное на исследования ИИ .
  • Да, есть программа IBM Watson, и да, в последнее время Google оказывает огромную поддержку, но большинство компаний по-прежнему пренебрегает ею.

  • Сложность интеграции нескольких сложных компонентов вместе для создания сложной динамической программной системы в случаях, когда поведение интегрированной системы чувствительно зависит от каждого из компонентов.

Некоторые другие очевидные проблемы:

  • Мы все еще не согласовали набор правил, касающихся поведения ИИ (что, очевидно, не означает, что ИИ собираются им подчиняться).
  • Емкость человеческого мозга достигает примерно 2,5 петабайта (источник). Мы до сих пор не нашли способ хранить такой огромный объем данных и не разработали алгоритмы, способные получить доступ к такому количеству данных в (почти) реальном времени.
  • Мы до сих пор не доработали распознавание голоса и синтез речи.
  • Мы до сих пор не нашли надлежащего способа проверки интеллекта (как уже говорилось, тест Тьюринга не идеальный способ проверить это, но он остается самым популярным).
  • Мы до сих пор не смогли выяснить все, что происходит в человеческом мозгу. Мы не можем воспроизвести то, чего еще не до конца понимаем.

Так когда же компьютер пройдет тест Тьюринга?

Некоторые предполагают, что это произойдет где-то в 2029 году.
Другие думают, что это может произойти где-то ближе к 2040 году.
Большинство людей согласны с тем, что это произойдет при нашей жизни.

Конечно, все это прогнозы, основанные на текущем технологическом процессе развития.
Закон Мура (удвоение мощности компьютера каждые год или два) до сих пор считается верным.
Однако есть веские основания полагать, что этот закон умрет в следующем десятилетии (даже Гордон Мур, его первоначальный автор, согласен с этим).

Ученые не согласны со скоростью роста технологических инноваций.Некоторые люди думают, что этот рост линейный, в то время как другие думают, что рост идет по экспоненциальному пути.

Из рисунка ниже видно, что разница между линейным и экспоненциальным ростом огромна и со временем становится все больше.
Теперь используйте два года как точку в t.

Демонстрация Duplex AI от Google прошла тест Тьюринга? [Обновление]

Этот сайт может получать партнерские комиссии за ссылки на этой странице.Условия эксплуатации.

Вчера на I / O 2018 Google продемонстрировал новую возможность цифрового помощника, призванную улучшить вашу жизнь, совершая простые скучные телефонные звонки от вашего имени. Новая функция Google Duplex предназначена для изобразить за человека, с достаточными человеческими функциями, чтобы назначать встречи или совершать аналогичные бессмысленные телефонные звонки.По словам генерального директора Google Сундара Пичаи, телефонные звонки компании были полностью реальными. На основе этих аудиоклипов вы можете аргументировать, что Google действительно прошел тест Тьюринга.

Если вы не слышали звук двух звонков, вам следует прослушать клип. Ниже мы встроили соответствующую часть презентации Пичаи.

Я подозреваю, что звонки были отредактированы, чтобы удалить место работы, но в остальном они звучат как настоящие телефонные звонки.Если вы послушаете оба сегмента, мужской голос, заказывающий ресторан, звучит немного больше как человек, чем женский, но разрыв невелик, и женский голос все равно заметно лучше, чем у обычного ИИ. У женщины-спикера в какой-то момент есть довольно роботизированное «В 12 часов», которое снижает общую презентацию, но после , что , Google значительно улучшил речь ИИ. Я подозреваю, что те же технологии, которые работают в Google Duplex, мы рассмотрели около шести недель назад.

Так что же такое тест Тьюринга и почему его прохождение является важной вехой? Британский ученый-компьютерщик, математик и философ Алан Тьюринг разработал тест Тьюринга как средство определения того, способен ли компьютер демонстрировать разумное поведение, эквивалентное человеческому или неотличимое от него.Эта широкая формулировка позволяет рассматривать множество таких тестов, хотя общий тестовый пример, представленный в обсуждении, представляет собой разговор между исследователем и компьютером, в котором компьютер отвечает на вопросы. Третий человек, оценщик, должен определить, кто из участников беседы является человеком, а какой — машиной. Если оценщик не может сказать, машина прошла тест Тьюринга.

Тест Тьюринга не предназначен для того, чтобы быть последним словом в вопросе о том, является ли ИИ разумным, и, учитывая, что Тьюринг задумал его в 1950 году, очевидно, что он не принимает во внимание более поздние достижения или прорывы в этой области.В течение десятилетий велись активные дебаты о том, станет ли прохождение теста Тьюринга значимым прорывом. Но что отличает Google Duplex от других, так это его превосходная имитация человеческой речи. Исходный тест Тьюринга предполагал, что любое обсуждение между компьютером и исследователем будет происходить в тексте. Умение создать голосовое факсимильное сообщение, достаточно близкое к стандартному человеческому, чтобы избежать подозрений и отказа со стороны рассматриваемой компании, является значительным подвигом.

На данный момент Duplex предназначен для обработки механических ответов, таких как просьба поговорить с представителем или простых, шаблонных социальных взаимодействий.Даже в этом случае продемонстрированная способность программы справляться с путаницей (как при втором вызове) по-прежнему является значительным шагом вперед для такого рода голосового взаимодействия. По мере того, как искусственный интеллект продолжает совершенствоваться, качество голоса будет улучшаться, и ИИ станет лучше отвечать на все больше и больше типов вопросов. Очевидно, что мы все еще далеки от создания осознанного ИИ, но мы совершенствуемся в задачах, с которыми могут справиться наши системы, — и быстрее, чем многие думали.

Обновление 18.05.18, 15:40: Вся эта демонстрация с тех пор была поставлена ​​под сомнение.

Тест Тьюринга — Phrasee

В июне 2015 года, после 65 славных лет, период правления могущественного теста Тьюринга подошел к концу.

Или это было?

«Юджин Густман», алгоритм машинного обучения, предназначенный для имитации речи 13-летнего украинского мальчика с домашней морской свинкой, стал первой машиной в истории, которая обманула судей, проводивших тест Тьюринга, и заставила их думать, что это был человек.

Или, по крайней мере, некоторые из них…

Да, Юджину удалось убедить 33% судей, проводивших тест Тьюринга, в том, что это был человек.Но 66% все равно поймали игру.

Вы не ослышались; Евгений убедил 10 судей из 30, что звучит не очень впечатляюще, но эй, правила есть правила …

Тест Тьюринга

«Предлагаю рассмотреть вопрос:« Могут ли машины думать? »»

Так постулировал Алан Тьюринг в своей статье 1950 года «Вычислительные машины и интеллект», в которой он описал свой ныне знаменитый процесс отличия истинного ИИ от умно запрограммированных чат-ботов.

Когда Тьюринг разработал свой тест «имитационной игры» в 1950 году, он подсчитал, что кому-то понадобится 50 лет, чтобы разработать программу, которая могла бы превзойти ее в 30% случаев.

Он переоценил прогресс глобальной технологии искусственного интеллекта на целых 15 лет.

Изображение предоставлено: Pixar

через GIPHY

С удивительным изобилием достижений в области машинного обучения с начала тысячелетия проблема правильного количественного определения истинного искусственного интеллекта становится все более интересной.

Где именно заканчивается «вычисление» и начинается «мышление»?

Тест «имитационная игра» Алана Тьюринга остается золотым стандартом для ответа на этот вопрос и по сей день, что чрезвычайно впечатляет, учитывая прогресс, достигнутый компьютерными науками со времен Тьюринга.

Предпосылка теста заключается в том, что именно означает «думать».

Изображение предоставлено: 20th Century Fox

через GIPHY

Тот факт, что Тьюринг занимался этими вопросами в то время, когда компьютерные технологии находились в самом зачаточном состоянии, свидетельствует о его гениальности.

*** Интересный факт: самые ранние компьютеры были известны как «машины Тьюринга» ***

Тьюринг считал, что определение того, что значит «думать», было невыполнимой задачей, и что вместо этого вопрос должен заключаться в том, может ли машина соответствовать заранее определенному набору требований, а именно его тесту.

Фактически, это был довольно элегантный ответ на вопрос, на который не было ответа.

Описанный процесс был относительно простым:

Следователь задавал вопросы как машине, так и человеку, которые были для него невидимы.

Вроде как «Свидания», но менее жутко.

Изображение предоставлено: ABC

через GIPHY

Вопросы и ответы будут задаваться в виде текста, отображаемого на экране и видимого для дознавателя.

Допрашивающий задавал одинаковые вопросы обоим и пытался определить, какой из них был компьютером, а какой человеком, на основе двух наборов ответов.

Допрашивающему было дано фиксированное время (5 минут) на то, чтобы определить характер двух сущностей, с которыми он / она разговаривал.

Отнюдь не помеха, основание теста на человеческом суждении и его уязвимость к человеческим ошибкам на самом деле было его сильной стороной, поскольку вся суть заключалась в использовании человеческой ошибки для «победы» в игре.

*** Интересный факт: ранние попытки ИИ часто было легко обнаружить, поскольку они никогда не допускали опечаток, орфографических или грамматических ошибок. ***

Считается, что машина «прошла» тест Тьюринга, если ей удавалось обмануть более 30% судей, участвовавших в эксперименте.

Очевидно, у процесса Тьюринга были свои недостатки, на что ботаники всего мира были только рады указать до тошноты.

В 1990 году Хью Лебнер разработал обновление для теста Тьюринга в рамках продолжающегося конкурса искусственного интеллекта под названием «Премия Лебнера», который проводится ежегодно и по сей день.

В обновлении

Лебнера у судей появилось больше времени, чтобы задавать вопросы и получать ответы, а также больше следователей, которые могли по очереди оценивать программу.

В то время как Лёбнер немного изменил параметры исходного теста Тьюринга, основные принципы теста и его процесс остались в основном неизменными.

И, если учесть тот факт, что Тьюринг изначально предположил, что 70% -ный показатель успеха будет лучшим критерием для успеха, мы думаем, что наш друг Евгений Густман и его создатели, Владимир Веселов, Евгений Демченко и Сергей Уласен, возможно, захотят это сделать. вниз на пару ступеней.

По ходу дела у нас нет никаких сомнений в том, что тест Тьюринга будет пройден в ближайшем будущем, но мы просто еще не готовы передать этот пояс Юджину.

Подпишитесь на еженедельную рассылку Phrasee. Это круто. Мы обещаем.

Ставка на тест Тьюринга: правила «Kurzweil

Объяснение правил, лежащих в основе теста Тьюринга, используемого для определения победителя длинной ставки между Рэем Курцвейлом и Митчем Капором относительно того, будет ли искусственный интеллект достигнут к 2029 году.

Опубликовано 9 апреля 2002 г. на KurzweilAI.net. Щелкните здесь, чтобы узнать, почему Рэй Курцвейл думает, что он победит. Щелкните здесь, чтобы узнать, почему Митч Капор думает, что выиграет. Наконец, посмотрите ответ Рэя.

Справочная информация о ставке «Давно Тест Тьюринга ». Рэй Курцвейл утверждает, что компьютер (то есть машинный интеллект) пройдет тест Тьюринга к 2029 году. Митчелл Капор считает, что этого не произойдет.

Эта ставка является первой долгосрочной ставкой, которую будет проводить Фонд «Долгое время».Доходы от пари должны быть переданы благотворительной организации, указанной победителем.

Этот документ содержит краткое описание теста Тьюринга и набор правил высокого уровня для управления ставками. Эти правила предполагают создание «комитета по тесту Тьюринга», который создаст подробные правила и процедуры для выполнения решения по ставкам. Основная задача Комитета по тесту Тьюринга будет заключаться в разработке правил и процедур, которые предотвращают и сдерживают мошенничество.

Краткое описание теста Тьюринга . В статье 1950 года («Computing Machinery and Intelligence», Mind 59 (1950): 433-460, перепечатано в E. Feigenbaum и J. Feldman, eds., Computers and Thought , New York : McGraw-Hill, 1963), Алан Тьюринг описывает свою концепцию теста Тьюринга, в котором один или несколько судей-людей опрашивают компьютеры и человеческие фольги с помощью терминалов (чтобы судьи не были предвзято относились к компьютерам из-за отсутствия человеческого облика. ).Характер диалога между судьями-людьми и кандидатами (то есть компьютерами и человеческими личностями) аналогичен онлайн-чату с использованием мгновенных сообщений. Компьютеры, а также человеческие ловушки пытаются убедить человеческих судей в своей человечности. Если судьи-люди не могут надежно разоблачить компьютеры (как людей-самозванцев), то считается, что компьютер продемонстрировал интеллект человеческого уровня 1 .

Тьюринг был очень неспецифическим в отношении многих аспектов проведения теста.Он не уточнил многие ключевые детали, такие как продолжительность допроса и изощренность человеческого судьи и ловушек. Цель правил, описанных ниже, — предоставить набор процедур для проведения теста через несколько десятилетий.

Эти Общие правила теста Тьюринга могут быть изменены с согласия Рэя Курцвейла и Митчелла Капора, или, если Рэй Курцвейл и / или Митчелл Капор недоступны, то Комитетом по тесту Тьюринга (описанным ниже). Однако любое такое изменение в настоящих Общих правилах теста Тьюринга может быть сделано только в том случае, если (i) эти правила будут определены как несоответствующие, или (ii) эти правила будут признаны несовместимыми с намерением Алана Тьюринга определить интеллект человеческого уровня в машина, или (iii) эти правила определены как несправедливые, или (iv) эти правила признаны неосуществимыми.

I. Определения.

Человек — это биологическая человеческая личность в том смысле, в котором этот термин понимается в 2001 году, чей интеллект не был улучшен за счет использования машинного (т.е. небиологического) интеллекта, независимо от того, используется ли он извне (например, использование внешнего компьютера) или внутренне. (например, нервные имплантаты). Человек не может быть генетически улучшен (с помощью генной инженерии) выше уровня человека в 2001 году.

Компьютер — это любая форма небиологического интеллекта (аппаратное и программное обеспечение) и может включать любую форму технологии, но не может включать ни биологического человека (улучшенного или иного), ни биологических нейронов (однако небиологические эмуляции биологических нейронов разрешены).

Комитет по тесту Тьюринга будет состоять из трех человек, которые будут отобраны, как описано ниже.

Судьями по тесту Тьюринга будут три человека, выбранные Комитетом по тесту Тьюринга.

Человеческая фольга для теста Тьюринга будет состоять из трех человек, выбранных Комитетом по тесту Тьюринга.

Участниками теста Тьюринга будут три человека-фольги для теста Тьюринга и один компьютер.

II. Процедура

Комитет по тесту Тьюринга будет назначен следующим образом.

  • Одним из членов будет Рэй Курцвейл или его назначенное лицо, или, если таковые отсутствуют, лицо, назначенное Фондом «Долгое время». В случае, если Фонд «Долгое время» назначит этого человека, он приложит все усилия, чтобы назначить человека, который лучше всего представляет взгляды Рэя Курцвейла (как это выражено в прилагаемом эссе «Почему я думаю, что выиграю тест Тьюринга« Давно сейчас » Ставка »)
  • Вторым членом будет Митчелл Капор или его представитель, или, если он недоступен, лицо, назначенное Фондом «Долгое время».В случае, если Фонд «Долгое время» назначит этого человека, он приложит все усилия, чтобы назначить человека, который наилучшим образом представляет взгляды Митчелла Капора (как это выражено в прилагаемом эссе «Почему я думаю, что выиграю тест Тьюринга. Ставка »)
  • Третий член будет назначен двумя вышеупомянутыми членами, или, если два вышеупомянутых члена не могут прийти к согласию, Фондом «Долгое время», который, по его мнению, может представлять позицию «золотой середины».

Рэй Курцвейл или его уполномоченный, или другой член Комитета по тестированию Тьюринга или Фонда «Долгое время» может время от времени призывать к проведению сеанса теста Тьюринга и выбирать или предоставлять один компьютер для этой цели.Для тех сессий теста Тьюринга, которые проводятся Рэем Курцвейлом или его представителем или другим членом комитета по тесту Тьюринга (кроме последнего в 2029 году), лицо, вызывающее тестовую сессию Тьюринга, должно быть пр

Тест Тьюринга, и как сдать

Поиск

близко

Меню

близко

Проводная Великобритания

Перейти к основному содержанию

Поиск

  • Технологии
  • Наука
  • Культура
  • Шестерни
  • Бизнес
  • Политика
  • Больше

    • Безопасность
    • Транспорт
    • События
    • Вакансии
    • Консультации
    • видео
    • Подкасты
    • Журнал
    • Подписывайся

Как пройти онлайн-тестирование и получить работу

Компании по транскрипции обычно проводят серию онлайн-тестов по транскрипции, которые тщательно оценивают ваши важные навыки, необходимые для выполнения транскрипции.Он включает в себя ваш язык, грамматику, орфографию, пунктуацию и навыки аудирования, знание необходимого компьютерного программного обеспечения и хорошие навыки клавиатуры.

8 простых способов пройти тесты транскрипции онлайн

Вот несколько советов, которые следует помнить при прохождении онлайн-теста транскрипционных компаний перед тем, как нанять вас на работу:

  1. Тренируйтесь печатать регулярно

    Хотя каждая компания устанавливает свои собственные стандарты приемлемой скорости набора текста, вы должны поставить цель набирать не менее 60 слов в минуту (слов в минуту) без ошибок.Можно печатать так медленно, как 35 слов в минуту, и проходить тесты транскрипции, но медленнее, чем это может быть сложно. Научитесь класть пальцы на клавиатуру, не глядя на них, во время практических занятий по транскрипции.

    Полезно попрактиковаться в транскрипции аудио из видео, которые вам нравятся, даже если у вас еще нет оборудования для транскрипции. Если вы действительно хотите сделать карьеру в этой области, вам нужно сделать набор текста постоянной привычкой. Имейте в виду, что в большинстве случаев точность важнее скорости, хотя оба навыка важны.

  2. Слушайте внимательно

    Умение правильно слышать слова из аудиозаписей является основным требованием для прохождения онлайн-теста. Набор неправильных слов во время тестирования может отрицательно сказаться на вашей оценке. Во время практики и тестирования убедитесь, что вы полностью сосредоточены на звуке, не отвлекаясь. Обычно это означает выключение телевизора или любой другой фоновый шум, который может нарушить вашу работу.

    Могут быть случаи, когда слова становятся совершенно неразборчивыми, и вы либо вставляете этот термин в скобки, например, [неразборчиво], либо как того требует учебное пособие для конкретного теста.Тесты транскрипции рассчитаны по времени, поэтому вам нужно будет действовать как следует и двигаться дальше.

  3. Правильная пунктуация

    Пунктуация — непростая тема, поскольку в разных источниках применяются разные правила пунктуации в зависимости от цели. Например, в академическом письме есть строгие правила пунктуации, которыми отличаются США и Великобритания. В США точки и запятые обычно помещаются в кавычки, но в Великобритании — за их пределами.Помните в своей практике транскрипции, чтобы уже знать, какой метод вы будете использовать, в зависимости от того, где проводится тестирование.

    Расшифровка для медиа-фирмы может иметь другие правила пунктуации. Хотя стиль AP по большей части соответствует американским академическим правилам пунктуации, средства массовой информации, которые больше основаны на комментариях, часто имеют более жесткие правила. Так что легко отказаться от правил «правильного английского», если вы читаете много литературы по поп-культуре. На всякий случай следует практиковаться в транскрипции аудио, используя стандартные академические правила тестирования.Затем в своей практике транскрипции следуйте правилам, установленным вашим клиентом или работодателем.

  4. Улучшение грамматики и правописания

    Правильная грамматика и орфография чрезвычайно важны в тестах на транскрипцию. Используйте программу проверки орфографии, когда практикуете транскрипцию звука, чтобы оценить свою точность. Убедитесь, что вы понимаете функции каждой из следующих восьми классификаций слов, используемых в английском языке:

    • существительные (лица, не относящиеся к местоимениям, местам или вещам: ребенок, детская площадка, игрушка)
    • местоимений (относятся к людям: я, он, она)
    • прилагательных (описательные слова: красивый, умный, счастливый)
    • глаголов (рабочие слова: ходить, бегать, плавать)
    • наречий (выражают, как что-то делается: медленно, умеренно, быстро)
    • предлогов (относятся к другому слову: на пляже, в парке, в воздухе)
    • союзы (слова, соединяющие мысли: и, но, или)
    • междометий (эмоциональные отдельные слова: эй, привет, да)
  5. Изучение форматирования транскрипции

    Чтобы получить высокие баллы за онлайн-тест на транскрипцию, вам необходимо иметь четкое представление о форматировании транскрипции.Службы транскрипции и школы обычно требуют особого форматирования, которое вам нужно будет изучить в учебном пособии конкретного учреждения. Обычно вы вставляете разрыв строки между динамиками. Такие идентификаторы, как «докладчик» или «аудитория» обычно выделяются жирным шрифтом. Тесты транскрипции часто просят участников сохранить файл, используя соответствующее имя файла и расширение (например, — Test.mp4). Макеты страниц, поля, типы и размеры шрифтов также являются частью форматирования.

    Также читайте: Все о правилах транскрипции для транскриберов

  6. Используйте критическое мышление

    Критическое мышление необходимо для практики транскрипции.Бывают моменты, когда вы должны будете принимать решения о том, что говорит говорящий, и о контексте, в котором используются слова. Поскольку многие слова имеют несколько значений, вам нужно будет вынести суждения, например, сказал ли человек «здесь» или «слышать».

  7. Инвестируйте в инструменты для транскрипции

    Если вы работаете независимо, вам нужно будет приобрести собственное записывающее оборудование и аксессуары, такие как гарнитура и программное обеспечение для транскрипции. Гарнитура поможет вам чувствовать себя более комфортно и лучше сконцентрироваться при прохождении онлайн-теста.

  8. Бесплатные ресурсы и практические файлы для улучшения навыков транскрипции

    Если вы ищете качественные ресурсы и файлы практики для прохождения тестов транскрипции, вы можете найти несколько из них, перечисленных ниже:

    1. Бесплатное обучение набору текста : предлагает бесплатную, увлекательную и увлекательную программу обучения в классе как для учителей, так и для студентов
    2. Инструмент оценки точности : Вы можете попробовать эту ссылку, чтобы проверить и попрактиковаться в своих навыках транскрипции.
    3. Слушайте и пишите : Это полезный ресурс для проверки вашей способности слушать.
    4. Файлы транскрипции для практики экспресс-писцов : Это опять же полезный ресурс для оценки ваших навыков транскрипции.

Хотите знать, сколько денег вы можете заработать как транскрипционист? Посмотри это видео! Это для вас!

К тебе!

Сдать тесты транскрипции не сложно, если вы соответствующим образом подготовитесь и будете практиковать транскрипцию аудио.Хотя скорость набора текста приходит со временем, основные проблемы во время тестирования связаны с точной интерпретацией того, что вы слышите и печатаете. Вы должны хорошо владеть грамматикой и орфографией. Лучше всего получить полное представление о том, что включает в себя транскрипция, а также инструменты и требования, прежде чем пытаться пройти тест для сертификации.

Похожие сообщения

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *