Планета Железяка: Искусственный интеллект всё ближе к нам

Представляю вашему вниманию недавнюю новость из мира науки и технологий. Я считаю, развитие ИИ сильно повлияет на наш современный мир и, конечно же, на игры. Сложно даже представить, какими будут ММО с использованием ИИ, а главное: как его станут использовать.

Группа исследователей из Массачусетского технологического института и Нью-Йоркского университета разработала новую систему искусственного интеллекта, которая оказалась способной ввести в заблуждение людей-судей когда дело коснулось рисования символов, напоминающих буквы какого-то экзотического алфавита. Этот эксперимент, результаты которого были опубликованы в журнале Science, можно рассматривать как прохождение визуального варианта теста Тьюринга, предназначенного для определения степени совершенства систем искусственного интеллекта.

В ходе эксперимента человеку и компьютеру показали незнакомый им символ, который напоминает некую букву. На приведенном немного ниже изображении вы можете увидеть примеры таких символов.

В первой части эксперимента человек и компьютер должны были внести изменения в символ таким образом, чтобы он немного исказился, но оставался после этого узнаваемым. В других частях теста человеку и компьютеру выдали целую серию символов и им требовалось создать новый символ, который вписывается в представленную серию.

Планета Железяка: Искусственный интеллект всё ближе к нам
После того, как человек и компьютер выполнили поставленные задачи, команда судей попыталась определить, какие из символов были нарисованы системой искусственного интеллекта. Через некоторое время, проведенное в разглядывании нарисованных «закорлючек», судьи вынесли свое решение, а точность определения ими работы искусственного интеллекта составила 50 процентов, другими словами, они не смогли однозначно отделить работу человека от работы компьютера.

Мы предоставляем нашим читателям самим побывать в роли судей.
На третьем изображении приведены рисунки шести символов, разбитые на две группы, каждую из которых нарисовал или человек или компьютер. Попытайтесь определить это сами, а правильные ответы приведены в самом низу этой страницы.

Планета Железяка: Искусственный интеллект всё ближе к нам
Все это походит на весьма странный эксперимент, но у него имеется очень глубокое и далекоидущее значение. В обычных условиях системы искусственного интеллекта проходят предварительное обучение на больших наборах данных прежде, чем они самостоятельно смогут решать определенные задачи. Человек, в отличие от этого, способен учиться «на лету», выполняя работу сразу и постепенно совершенствуя свои навыки.

В новой системе искусственного интеллекта как раз и была реализована технология «обучения на лету» в основу которой легли самообучающиеся алгоритмы Bayesian Program Learning. Эти алгоритмы подходят к проблеме обучения точно таким же образом, которым люди изучают неизвестные им до этого понятия.

«Сначала наша программа составляет весьма грубую модель данных, с которыми ей предстоит работать. После этого специальные алгоритмы заполняют пробелы в этой модели, анализируя результаты своей деятельности или примеры подобной деятельности, сделанной людьми или другими системами».

В данном случае программа определила, что процесс рисования символов состоит из так называемых «штрихов», разделенных отрывом ручки от бумаги. Штрихи, в свою очередь, состоят из серии более мелких действий, разделенных точками, в которых скорость ручки равна нулю. Составив такую обобщенную модель, система искусственного интеллекта произвела анализ движений ручки при рисовании людьми символов из различных алфавитов, и этот анализ дал в ее «руки» возможность рисования новых и повторения уже нарисованных символов.

«Множество систем были созданы с целью распознавания символов» – рассказывает Джош Тененбаум (Josh Tenenbaum), один из исследователей, – «Такие системы терпят неудачу в идентификации символа, если его часть прорисована нечетко или не нарисована вообще, как это часто бывает в рукописном тексте. Наша система искусственного интеллекта свободна от этого недостатка, ведь она не занимается оценкой формы символа, а производит анализ порядка его начертания. Система определяет, из чего состоит каждый символ и ей не представляет труда идентифицировать его даже тогда, когда в рисунке отсутствуют целые части».

И в заключение приводим правильные ответы к третьему рисунку. Искусственный интеллект является «автором» 1, 2 и 1 наборов символов в первой строке, и 2, 1 и 1 наборов символов во второй строке.

53 комментария

avatar
Сложно даже представить, какими будут ММО с использованием ИИ

… в качестве игроков.
  • +1
avatar
Раз уж мы любим проходить тесты — 4 из 6. :)
  • +1
avatar
Что ж. Я символы от человека приписал ИИ, а от ИИ человеку)
  • 0
avatar
Дайте пожать вам руку коллега, тоже 4/6, косяки на обоих правых рисунках допустил
  • 0
avatar
визуального варианта теста Тьюринга
Интересно, когда будет уже обратный тест Тьюринга? Чтобы ИИ пытался отличить человека от машины — и тоже самообучался в этом деле.

В новой системе искусственного интеллекта как раз и была реализована технология «обучения на лету» в основу которой легли самообучающиеся алгоритмы Bayesian Program Learning. Эти алгоритмы подходят к проблеме обучения точно таким же образом, которым люди изучают неизвестные им до этого понятия.
«Сначала наша программа составляет весьма грубую модель данных, с которыми ей предстоит работать. После этого специальные алгоритмы заполняют пробелы в этой модели, анализируя результаты своей деятельности или примеры подобной деятельности, сделанной людьми или другими системами».
В любом случае нужен фундамент для первой пробы (для человека это могут быть рефлексы и инстинкты, т.е. результат биологического обучения). Плохо понимаю, чем одно обучение будет «на лету», а другое — нет.

В данном случае программа определила, что процесс рисования символов состоит из так называемых «штрихов», разделенных отрывом ручки от бумаги. Штрихи, в свою очередь, состоят из серии более мелких действий, разделенных точками, в которых скорость ручки равна нулю.
Как и на чем она это определила?
  • 0
avatar
С тестом Тьюринга всегда есть вопрос, насколько это необходимо, чтобы ИИ прикидывался человеком или делал что-то идентично человеку. Особенно, если он может сделать это лучше (самолёт же не машет крыльями как птица).

А вот формулирование принципа, стоящего за рукописными алфавитами — интересное достижение. Особенно, если система самообучения способна выявлять подобное.
  • +1
avatar
Вопрос в том, что Тест Тьюринга даже в своей первоначальной формулировке давно был опровергнут Китайской Комнатой. Поэтому этот якобы похожий на тест Тьюринга (а по сути совсем нет) тест совсем не может считаться указывающим на то, что данная система ИИ является разумной (а ведь именно это задача теста Тьюринга и ничего другое). Поэтому опять же дешевые сенсации )

Практичнее было бы решать задачи Бонгарда, но кто про них слышал ))
Комментарий отредактирован 2015-12-21 02:38:31 пользователем tac
  • +1
avatar
Проблема ИИ на сегодняшней стадии развития в том, что он действует лишь в границах созданных алгоритмов. Пусть даже их множество и растет с каждой итерацией тем самым увеличивая гибкость, но пока что есть граница которую ИИ не переступить — это «понимание», что проиллюстрировано «Китайской комнатой». Мне кажется сложно вообще называть систему «ИИ» пока «понимание» не будет достигнуто.
Комментарий отредактирован 2015-12-21 10:44:27 пользователем Lavayar
  • +1
avatar
Один из главных признаков интеллекта это осознание самого себя. Если ИИ сможет сказать кто он, осознавая это, не по прописанному протоколу, а зная только язык и значения слов.
  • 0
avatar
и тут к нам с кислой рожей высовывается философия и уточняет что мы понимаем под самосознанием (и самоосознанием и понимаем ли что это разные слова вообще и .) и как будем это проверять… Вот хотя бы на стандартном Васе. А то она уже несколько веков сидит и пока ничего внятного на этот счет сказать не может. ;-) Причем высовывается томов этак на тридцать.

За ней весело машут руками психология с сестрой ее психиатрией и прочие этологи/когнитивисты.
  • 0
avatar
Взмахом руки отправляем их изучать дальше те дисциплины для которых они созданы, до полного просветления.
  • 0
avatar
Ну жесткий ИИ по сути как раз на их поле и будет играть.
Даже тест Тьюринга уже наполовину использует психологию.

А уж как отличить самосознание и момент самоосознания от имитации оных хорошо проапгрейженной «Элизой», вообще вопрос затрагивающий довольно много наук включая философию.
  • 0
avatar
Лучше не надо. Хотелось бы просто ИИ для решения прикладных задач без игр с человеческой философией и психологией.
  • 0
avatar
ну это уже частичные ИИ будут без сознания как такового. Только с отдельными элементами. Вернее уже есть и развиваются. От онлайновых переводчиков, до тех же интеллектуальных систем.
  • 0
avatar
Never ever use Google translate :)

Вообще в ИИ-переводчик мне слабо верится. В каждом языке есть мета-уровень связный с определенной культурой. Это как объять необъятное.
  • 0
avatar
Вообще в ИИ-переводчик мне слабо верится.

Записал в книжечку, постараюсь напомнить лет эдак через десять.
  • 0
avatar
ну уровень все же растет. по сравнению с первыми эти уже очень приличны. а так метауровни там даже не один, и не факт что вообще конечное число.
  • 0
avatar
только не китайской комнатой. Там всего лишь пытаются разбить понимание на элементы, не учитывая эмержентные свойства системы, а лишь сводя ее к сумме частей. Так можно отсутствие разума в мозгу доказать сведя все к механическому взаимодействию нейронов.
  • 0
avatar
Мне кажется смотреть на китайскую комнату как на «механическое понимание» языка достаточно узкое представление. Понятно что у языка есть мета-уровень культурных особенностей где одни слова на самом деле значат не то про что они написаны. Но это не нарушает саму концепцию китайской комнаты.
  • 0
avatar
я спорю скорее именно с тем что китайская комната что то опровергает или демонстрирует невозможность чего то в ИИ.

Потому что по сути у каждого в голове есть своя китайская комната, просто очень большая и сложная.

И если естественный интеллект переступил границу понимания, то значит и китайская комната на это способна. («как» это на несколько порядков более сложный вопрос).
  • 0
avatar
Ну это да. Она демонстрирует лишь проблему, над которой придется задуматься создателям ИИ, но никак не невозможность ее решения.
  • 0
avatar
Китайская комната опровергает Тест Тьюринга, а именно то, что о наличии понимания можно судить по внешнему поведению субъекта.
  • 0
avatar
нет не опровергает. Это скорее демонстрация одной из механик. Судить по ней о целях вообще нет смысла.
  • 0
avatar
Понимание — понятие крайне растяжимое.
Конечно понимание китайской грамоты в «китайской комнате» ограничено сопоставлением символов без привязки к звучанию или конкретным объектам/действиям. Но насколько это отличается от понимания некоторых областей математики или квантовой физики, где всё сводится к набору формул без возможности рассмотреть объект собственными глазами?
Задавались ли вы вопросом, насколько ребёнок, отвечая на стандартные вопросы, понимает их суть, а насколько это сводится к формуле «на это надо отвечать вот так»? А с вызубренными стишками ещё хуже — в итоге может обнаружиться даже неправильное разбиение этого потока текста на слова.

Наш собственный мозг — та же китайская комната (с несколькими каналами передачи информации, но это не настолько важно). При этом в ней изначально даже нет библиотеки — только маленькая книжка с набором инстинктов. И на формирование базовых принципов, на которых строится то, что мы называем пониманием, уходит несколько первых лет жизни. Да и потом формирование понимания любой новой области обычно существенно отстаёт от набора базы данных.

В общем, с подобного рода понятиями всегда стоит сначала задать вопрос, насколько мы сами достигаем этого и что в этом случае вот это понятие на самом деле из себя представляет. И главная проблема тут — осознание мыслительного процесса, когда в цепочке присутствуют несколько скачков через формирующиеся в раннем детстве или даже генетически обусловленные нейронные цепочки (то самое, когда единственный ответ у большинства людей сводится к вопросу «Ну как это можно не понимать?»)
  • +3
avatar
Достаточно «понимания» в границах той узкоспециализированной задачи для которой создан ИИ. Не стоит пытаться объять необъятное. Другой вопрос насколько возможно выделить отдельный объём информации что бы создать понимание именно этой задачи.
  • 0
avatar
Другой вопрос насколько возможно выделить отдельный объём информации что бы создать понимание именно этой задачи.
Тащемто, это то как раз решаемо и довольно давно, при построении интеллектуальных и экспертных систем, например.
  • 0
avatar
Может быть. Это уже какое то специализированное знание, на которые я не натыкался.
У меня остается вопрос будет ли работать понимание лишь имея информацию до определенного уровня. Например если я понимаю что есть сплав металлов нужно ли мне понимание физических и химических процессов или и так я смогу применять свое понимание на практике проектируя что-то из этих сплавов.
  • 0
avatar
Сплавы же вообще хорошо структурированная проблемная область. Там же вроде сопромат практически целиком все закрывает. Т.е. это даже не ИИ будет нужен а хорошая инженерная программа по учебнику.
Для медицины например уже сложнее. Какие признаки человека надо вытащить чтобы поставить нормальный диагноз не всегда понятно, а сами значения могут быть дорогостоящими. Да еще и связи между значениями не всегда формальные. Тут берется эксперт (например доктор мед наук) наливается ему коньяк, ставится на прогрев утюг с паяльником… и так пока все не расскажет и начинается с ним работа по формализации данных (долгая, требующая квалификации как в математике и прикладной области, так и в самих навыках общения и понимания у специалиста), после чего уже строится экспертная/интеллектуальная система.

А вот например адекватный машинный перевод даже такими способами уже не берется, там совсем другие подходы с заглядыванием на поле как лингвистики с философией, так и статистики с мат методами.

А еще есть нейронные сети, обучение. генетические алгоритмы и прочее…
  • +2
avatar
Медицина вряд ли будет объектом для внедрения ИИ. Тут мы возвращаемся к вопросу как можно научить ИИ пониманию если люди сами до конца не понимают процессы в человеческом теле (не говоря уже про мозг).
  • 0
avatar
Я работал над медицинскими интеллектуальными системами. второй вариант это вообще чистая практика.
  • 0
avatar
Тут мы возвращаемся к вопросу как можно научить ИИ пониманию если люди сами до конца не понимают процессы в человеческом теле (не говоря уже про мозг).
пониманию на том же уровне, что понимаем мы (на уровне приглашенного эксперта).
  • 0
avatar
> Тут берется эксперт

Вот когда этого не будет, но будет получено соответствующие решение, это и будет критерием наличия понимания.
Комментарий отредактирован 2015-12-22 15:32:18 пользователем tac
  • 0
avatar
тоже не факт. Эксперт сам то тоже фактически экспертная система, только обученная ранее другими экспертами.

Процесс накопления данных и знаний все равно убрать не получится.
  • +1
avatar
> Эксперт сам то тоже фактически экспертная система, только обученная ранее другими экспертами.

Это уже не важно, когда будет такая экспертная система, обученная в смысле обучения ребенка (т.е. самообучение), это будет соответствовать требуемому уровню.
  • 0
avatar
ну это сейчас ближе к фантастике чем к перспективам. да и где ее применять?
  • 0
avatar
Китайская комната (насколько я помню тот мысленный эксперимент) ничего не опровергает. Комната целиком вполне может оказаться разумной. несмотря на механистичность отдельных элементов/ клеток. Так же как разумен мозг, несмотря на то что каждый отдельный нейрон/аксон не более чем клетка с химическим и электрическим действием.

Задачи Бонгарда сейчас как раз решаются, но они достаточно узкоспециализированы (фактически это распознавание и не более) и например в принятии решений их применимость будет нетривиальной как минимум.

К тесту Тьюринга скорее есть вопросы по поводу заведомо нечеловеческого интеллекта, если он будет получен. Или по поводу качественных ботов которые могут его пройти за счет разветвленной и хорошо структурированной БД с не интеллектуальным алгоритмом (за счет того что человек тоже будет действовать механистично).
  • 0
avatar
> Комната целиком

Это всего лишь один из ответов какого то представителя института (уже не помню) на Китайскую комнату, он более чем спорен и совсем не показывает, что выводы по Китайской комнате не справедливы.
  • 0
avatar
ну я скорее согласен с этим представителем, чем с вами.
Опять же мы сами думаем по сути китайской комнатой большого объема. Мозг называется.
  • 0
avatar
> с этим представителем, чем с вами

не со мной, а с Серлем… а уже я, в свою очередь, согласен с Серлем.
  • 0
avatar
> Задачи Бонгарда сейчас как раз решаются, но они достаточно узкоспециализированы (фактически это распознавание и не более)

Их решают не правильно, отсюда и ваш вывод. Там 100 задач, так вот решением не является решить их по отдельности, решением является решить их одним общим алгоритмом, а это как раз не делается. А если бы это сделали бы — это как минимум был бы “Это — маленький шаг для человека, но огромный — для всего человечества” (увы, детали не формат для этого форума)
  • 0
avatar
Поясню просто, что те 100 задач противоречивые на первом уровне понимания, чтобы их решить необходимо, чтобы появился алгоритм обобщения (появление понятия квадрат, а не конкретный квадрат (а тут ниточка к Минскому, которого никто не опроверг ) )) и по сути вся формальная логика (не путаем с огрызком мат. логикой). Именно такими тестами по сути и проверял психолог когнитивной психологии (фамилии если интересно могу вспомнить) детей различных возрастов для определения формирования у них интеллекта, поэтому тут возражений таких как ТестТьюринга и Китайская Комната — быть не может. Тут психологии будут в согласии с ИИ-специалистами. В случае же, ТестТьюринга и Китайская Комната — это спор между двумя лагерями, в котором проигрывают ИИ-специалисты с разгромным счетом, хоть и не соглашаются с этим.
Комментарий отредактирован 2015-12-22 16:03:58 пользователем tac
  • 0
avatar
Поясню просто, что те 100 задач противоречивые на первом уровне понимания, чтобы их решить необходимо, чтобы появился алгоритм обобщения (появление понятия квадрат, а не конкретный квадрат (а тут ниточка к Минскому, которого никто не опроверг ) )) и по сути вся формальная логика (не путаем с огрызком мат. логикой).
Ну это во первых на пару уровней сложности выше чем ИИ развит сейчас. И не факт что развитие вообще пойдет в этом направлении (формальную логику зачастую прекрасно замещает статистика (квадрат это то, что все называют квадратом), например в машинном переводе или психологическом эксперименте про давление массового сознания)

Комната — это спор между двумя лагерями, в котором проигрывают ИИ-специалисты с разгромным счетом, хоть и не соглашаются с этим
А кто второй лагерь и что специалисты по ИИ проигрывают? А то вот мне как пусть и бывшему в академическом прошлым таким специалистом, интересно стало.
  • 0
avatar
Философы, психологи — второй лагерь. Серль и Таубе — его яркие представители.
  • 0
avatar
так мы с ними не спорим. Для нас китайская комната --описание методов некоторых решений некоторых задач. Если они считают это возражением, то это их право.

наука не играет в соревнования кто кого победит. ну кроме моментов распределения грантов. Наука а особенно прикладная математика, решает практические задачи. А решать что то чтобы философы подумали о нас хорошо — нет такой задачи перед математикой.
Серль и Таубе — его яркие представители.
А что они сделали для ИИ, чтобы вообще квалифицированно спорить со специалистами в их области. Потому что вообще то ИИ за пределами знаний экспертов и данных о проблемных областях это много скучной веселой математики, матлогики. матстатистики и оценок сложности алгоритмов перебора. возражения психологов и тем более философов вообще будут вне круга решаемых задач.
  • 0
avatar
> А что они сделали для ИИ, чтобы вообще квалифицированно спорить со специалистами в их области

Они сделали много больше, чем любой другой специалист ИИ (говорю я это являясь последним). Они дали понимание того, что ИИ-специалисты более, чем часто (как в частности, в обсуждаемой статье) «выдают желаемое за действительное».

Только не путайте их с т.н. оракулами ИИ (тут я о них пишу habrahabr.ru/post/148849/)
Комментарий отредактирован 2015-12-22 19:02:05 пользователем tac
  • +1
avatar
Они дали понимание того, что ИИ-специалисты более, чем часто (как в частности, в обсуждаемой статье) «выдают желаемое за действительное».
слишком категорично для статьи описывающий алгоритм и результаты. желаемое, действительное. работает ведь.
Тем более искусственного человека никто после серьезного прокола с предсказаниями 60-70х годов делать не собирается уже.
  • 0
avatar
> Тем более искусственного человека никто после серьезного прокола с предсказаниями 60-70х годов делать не собирается уже.

Рад, что вы это понимаете… но посмотрите комментарии других ;)
  • 0
avatar
Слишком категорично как раз не у них, а у ИИ-специалистов. Не могу не процитировать Таубе по этому случаю:

«М. Таубе пишет: »… классический порочный круг:

1. предлагается конструкция машины, предназначенной для моделирования человеческого мозга, который не описан;
2. подробно описанные характеристики машины полагаются аналогичными характеристикам мозга;
3. затем делается «открытие», что машина ведет себя подобно мозгу; порочность состоит в «открытии» того, что было постулировано"."
  • 0
avatar
Как минимум он спорит не с тем что происходит в науке, насколько я знаю.
1. предлагается моделировать отдельные процессы мозга, а не сам мозг (всевозможные распознавания и переводы которые вообще не факт что моделируют человеческое мышление). Или отдельные части мозга в рамках его описания биологами (нейросети, обучение. нечеткий вывод). Кстати все более и более полного. более того моделируется все что может дать пользу. до эволюционных моделей включительно.
2. 3. вообще вне контекста наук по ИИ. Машина ведет себя подобно мозгу на основе совпадения реакций, выводов и получаемых результатов. Не более. Т.е. автомат распознал капчу или перевел кусок текста — хороший умный аппарат. Не распознал — нехороший и неумный. Соответствие мозгу тут вообще не входит в задачу.
  • 0
avatar
> Соответствие мозгу тут вообще не входит в задачу.

Возвращаемся в начало дискуссии? Вы говорите о слабом ИИ, в то время как тест Тьюринга о сильном ИИ. Его и опровергает Серл, и в самом начале он пишет, что к слабому не имеет ни каких претензий… ну и в такой формулировке два лагеря довольны )

> Машина ведет себя подобно мозгу на основе совпадения реакций, выводов и получаемых результатов.

А вот тут извините, повторю что писал выше

Китайская комната опровергает Тест Тьюринга, а именно то, что о наличии понимания можно судить по внешнему поведению субъекта.
Комментарий отредактирован 2015-12-22 22:40:01 пользователем tac
  • 0
avatar
> формальную логику зачастую прекрасно замещает статистика

ограничения статистического подхода достаточно известны.

По этому поводу у вашего покорного слуги есть несколько статей ))
Наверно, в качество короткого введения в тему, можно посмотреть следующею популяризацию проблемы habrahabr.ru/post/140470/

Поэтому нет, этого подхода менее чем достаточно.
Комментарий отредактирован 2015-12-22 17:41:17 пользователем tac
  • 0
avatar
ограничения статистического подхода достаточно известны.
Тем не менее в решении практических задач он вообще показал себя очень неплохо. И кстати не факт что мозг действует логически а не статистически в большинстве некоторых случаях. Так что может кому и не достаточно, а Гугл например на этом подходе выдает практические результаты от неплохого поиска до серьезного шага в адекватности перевода.
  • 0
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.