Блог им. hitzu: Две пиццы на плите

Алгоритмы распознавания изображений далеко не новы. Каждый из нас хоть раз, да пользовался сервисами поиска картинок от Гугла и Яндекса. Но теперь исследователи из лаборатории Гугл обнародовали информацию о новом методе на основе искусственных нейронных сетей. Теперь робот может не просто распознавать и вычленять объекты на изображении, но и объяснять человеческим языком что он видит на картинке. Иными словами у робота создаётся связь между объектом и его названием. При этом объект, например собака, может выглядеть совершенно иначе на разных примерах, но обобщаться одним понятием. А это уже, дорогие друзья, семантика — когда у слова появляется смысл, привязка знака к объекту из реальности. Вспомним проблему «Китайской комнаты», не это ли её решение? Мне кажется, это событие очень большого масштаба, ещё одна ступень в развитии искусственного интеллекта. Воистину мы живём в будущем.

Источники:
googleresearch.blogspot.co.uk/2014/11/a-picture-is-worth-thousand-coherent.html
geektimes.ru/post/241726/
cs.stanford.edu/people/karpathy/deepimagesent/?hn

102 комментария

avatar
Д как бы, подобные системы не новаторство гугла, разве что они ее доработали под себя…

Как человека не далекого от всего этого мня больше пугало, пугает и будет пугать именно возможность построения подобных ассоциативных связей, их накопление и последующая комбинативная обработка. Все же когнитивная деятельность не для роботов…
Комментарий отредактирован 2014-11-20 23:59:55 пользователем CapAnarchy
  • 0
avatar
Почему пугает?
  • 0
avatar
Кибернетичские сети подобного рода не столько опасны ( истерия навеянная терминатором и матрицей ), сколько могут являться личностями. Сознание не появляется вдруг по щелчку, это системное явление. Доказательства рассудочной деятельности у животных имеется, а вот с такими программами куда сложнее.
Мы между собой и с другими видами ужиться-то не можем, а уж про это вообще молчу. Лишние проблемы… Лучше бы они разрабатывали неинвазивные методы изучения нейронных систем уже существующих.))
  • 0
avatar
Лишние проблемы…
Вот когда дойдёт до эмпатии, тогда начнутся проблемы. А пока это всё довольно безопасно, прикольно и полезно.

Лучше бы они разрабатывали неинвазивные методы изучения нейронных систем уже существующих.))
Ты мне напоминаешь людей, которые при любом удобном случае критикуют космические программы и БАК в стиле «лучше бы они дороги строили, с бедностью/голодом/болезнями сражались». Дороги строить — это хорошее дело, но вот это указывание что кому и чего делать — это просто некрасиво. Я даже в этом случае возмущения понять не могу, потому что это частная лаборатория, которая не живёт с налогов, субсидий и госфондов.
  • 0
avatar
Вот когда дойдёт до эмпатии, тогда начнутся проблемы. А пока это всё довольно безопасно, прикольно и полезно.
так потом будет поздно бояться :(
  • 0
avatar
У нас на Земле находится столько ядерного запаса, что он способен уничтожить планету несколько раз. И не факт, что он находится в надёжных руках с ясной головой. Давно уже поздно бояться. :) ИИ в этом плане намного более предсказуем.
Комментарий отредактирован 2014-11-21 18:59:38 пользователем hitzu
  • +2
avatar
ИИ в этом плане намного более предсказуем.
И это самое страшное. Если из каких-то предпосылок ИИ решит что люди «не нужны»…
  • 0
avatar
Я думаю инженеры не настолько глупы, чтобы оставить такую дыру — главную пугалку пятидесятилетней давности.
  • 0
avatar
И тут мы возвращаемся к понятию «Сингулярности» :)
  • 0
avatar
Мне кажется она переоценена.
  • 0
avatar
Люди, успокойтесь ИИ ничего не решит у него нет мотивации. Проблема многих людей, не связанных с нейронаукой, в том, что они приписывают машине свойства человеческой психики.)
Комментарий отредактирован 2014-11-22 00:00:47 пользователем CapAnarchy
  • +2
avatar
Вообще-то как раз наличие системы аналогичной системе зеркальных нейронов сделает только шаг в сторону моделирования и предсказания поведения приматов, т.к. она лишь у нас встречается. Если речь о том, что называют «эмоциями», то тут все гораздо слонее, т.к. это лимбическая систем, да ее и не забываем о гуморальной регуляции, которую нейронные сети не осущесвляют впринципе.

Суть в том, что это не несет никакой пользы, и я не о ЦЕРНе сейчас говорю. Есть большая разница между наращиванием вычислительных мощностей и созданием ИИ ( да, ИИ и искусственные нейронные сети это кардинально разные вещи, как таракан и сорока ). Подобные адаптивные системы — попытка игры с чужими жизнями и создание искусственных рабов, как бы странно это не звучало.
Комментарий отредактирован 2014-11-21 23:59:08 пользователем CapAnarchy
  • +1
avatar
Подобные адаптивные системы — попытка игры с чужими жизнями и создание искусственных рабов, как бы странно это не звучало.
Эти заявления слишком далеки от реальности.
  • 0
avatar
Знаешь, лет 20-30 назад с тобой многие бы согласилсь. Да что уж там, некоторые до сих пор в новых учебниках пишут такое, что товарищ Павлов в гробу вертится, когда его цитаты приделывают к метафизическим теориям о том что условные рефлексы и ВНД это кардинально разные виды деятельности. Прошли те времена, когда сознание было предметом обсуждения философии, и уж тем более те времена, когда его наличие приписывалось только людям. Самая большая проблема в том, что после подобных открытий ( особенно хорошенько колыхнуло наличие ВНФ у беспозвоночных цефалопод ) понимание сознания сильно изменилось и границы его поиска тоже прилично расширились. В конце концов, как сказал Кристоф Кох: «мы мерим все живое по себе, но наш мозг не универсален и животные нам это доказывают постоянно» ( не уверен, что точно передал, но все же)
  • 0
avatar
Я немного о другом. Без сомнения для меня не новость, что животные имеют сознание, что человек по сути — лишь лысая обезьяна, а не венец эволюции. Просто когда начинаются обсуждения морали в таких исследованиях, то надо понимать границы. Никто в здравом уме не станет утверждать, что препарировать круглоротых червей или мух-дрозофил неэтично. Так чего ж на искусственные нейросети так реагировать?
  • +1
avatar
Нет, тут не о морали, а скорее о неких общих правилах. О том по каким тогда критериям судить что можно, а что нельзя? В том-то и дело, что мораль неуместна в обществе с таким уровнем технологии, она слишком проста, слишком категорична и груба. Следование этике ведет к безоговорочному исполнению правил, а в итоге получатся что одни и те же действия с разными субъектами трактуются по-разному. ( «скруглил» как мог, не хочу свои представления навязывать, уж точно не здесь)
А сети, они развиваются, да пока это тараканы и черви, но это только пока, к слову, этих «червей» заставляют заниматься именно ВНД, а не детерминированным поведением, это тоже очень важно помнить. Когда-то бытовало мнение, что количество нейронов определяет когнитивные способности и, возможно, рассудочную деятельность, но на практике все оказалось совсем не так. Количество, конечно, важно, но до опред. пределов, а потом уж важно то, что в процессорах называют архитектурой.
  • 0
avatar
И какие выводы то? Не заниматься исследованиями и посадить их под табу?
  • 0
avatar
Подобные адаптивные системы — попытка игры с чужими жизнями и создание искусственных рабов, как бы странно это не звучало.
А что в этом плохого?
Во первых искуственное сознание не будет человекоподобным. ну просто потому что создателям это будет не нужно. Следовательно рабство и прочие человеческие критерии к искуственному разуму будут неприемлемы. Если разум бодет создан служить и помогать, то поверьте никакого желания свободы и самостоятельности там не будет. Более того ему можно будет поставить нужные базовые рефлексы вместо тех то есть у живых разумов (саомосохранение и размножение не обязательны для созданного разума.).
Во вторых изучая сознание конструктивным образом у нас будет больше материала для анализа и понимания естественных сознаний. Т.е. как минимум это даст большую эффективность в лечении психологических траблов, как максимум позволит расширить используемые ресурсы мозга

А искусственные рабы давно уже есть и сознание (даже интеллект) им не требуется промышленные рабы это руки с алгоритмом, Военные рабы это беспилотники и дроны, бытовые рабы это щетка с алгоритмом «ездить покрывая все пространство». Раб с сознанием убыточен избыточен, а следовательно не нужен.
  • +1
avatar
А определение человека у вас только как генетический вид проходит?)
Спешу вас огорчить, но само понятие вида — биологическая условность.

«саомосохранение и размножение не обязательны для созданного разума.» Любая адаптивная система направлена на саморазвитие и совершенствование ( обучение ). Для этой системы необходима мотивация. Если ты создаешь ИИ, то его обучение это в большей степени готовая программа, а адаптивная система ( нейронная ) имеет цель, причем она сама может ее себе поставить, это называется доминантой. Без подобной структуры это будет именно искусственный интеллект, а не то, что пытаются создать эти ребята.

Т.е. как минимум это даст большую эффективность в лечении психологических траблов

Нет не даст. Для этого необходимо воссоздани не коры, а лимбической системы и системы гуморальной регуляции, что и приводит нас обратно к созданию искусственного человекоподобнго мозга. НО! Даже если вы создадите НЕчеловекоподобную адаптивную систему вы не можете быть уверены в том, что она не самоорганизуется как ей выгодно, т.к. эта система не программируется вообще а самообучается с самого начала ( за исключением базовой программы эмуляции синаптических связей ), в этом кардинальная разница между ИИ и системами нейронов. Ко всему прочему вы представляете на сколько сильно могут различаться системы адаптивного поведения?)) В свое время люди, изучавшие беспозвоночных, назвали отделы нервной системы головоногих ганглиями, т.к. это на столько было непохоже на мозг не то что человека, а вообще позвоночных животных. Это была абсолютно децинтрализованная нервная система, а самое забавное то, что уровень когнитивных способностей цефалопод сравним с человекообразными и врановыми, т.к. те способны на создание орудий труда и многие другие сложные когнитивные «вуаля». Так что говорить о том, что система будет такой, какой захотят создатели некорректно по определению, она будет такой, какой она захочет быть, точнее какой ее сделает среда, но «програмирование средой», то есть то, что называется для животных дрессурой, а для людей почему-то воспитанием, малоэффективный, малопредсказуемый и крайне долгий процесс.

«Раб с сознанием убыточен избыточен, а следовательно не нужен.» Раб без сознания уже не раб, это как-то глупо. О_о
Комментарий отредактирован 2014-11-22 12:56:20 пользователем CapAnarchy
  • 0
avatar
А определение человека у вас только как генетический вид проходит?)
Спешу вас огорчить, но само понятие вида — биологическая условность.
На правах рабов у нас давно существует множество животных: собаки, скот, животные в зоопарках. Собаки при этом даже рады служить, что мешает задать такое поведение искинам?
  • 0
avatar
Ну, животные рабы только в том случае, если их физиологические потребности не удовлитворяются полноценно. Конечно, если жестоко обращаться и кормить черти чем, да.
К слову, те же собаки делают это все не просто так а за вознаграждение, у них есть свой корыстный интерес, кроме того они достаточно социальные животные. И любая подобная система будет работать на себя. Хотя, тут еще много всего можно обсудить вплодь до патернализма, прав животых и т.д. и т.п.

… скот, животные в зоопарках.
Прости, может не стоит это тут разводить, но это такое оправдание?) Для меня это звучит очень лицемерно, особенно после упоминания собак, положение у них немного разное, как и отношение к ним.
  • 0
avatar
К слову, те же собаки делают это все не просто так а за вознаграждение
Есть интересная австрийская пословица-анекдот: вчера я здорово порадовал свою собаку — сначала как следует отлупил, а потом перестал. Но это так, к слову.
У собак, как и у других социальных животных, сильно развита эмпатия, и то, что нравится вожаку (хозяину), то нравится псу. Конечно, они пользуются любой возможностью порадовать хозяев.

Для меня это звучит очень лицемерно, особенно после упоминания собак, положение у них немного разное, как и отношение к ним.
Конечно разное. У тех же собак очень разное положение в зависимости от вида хозяйства. В городских квартирах они живут в своё удовольствие, едят качественный корм, посещают ветеринара. На селе к собакам совсем другое отношение.
  • 0
avatar
У тех же собак очень разное положение в зависимости от вида хозяйства.
Нет, я о разных видах.

У собак, как и у других социальных животных, сильно развита эмпатия, и то, что нравится вожаку

Нет, подожди, иерархия это одно, а эмпатия врожденная икакого отношения к этому не имеет, ну может косвенное. Но эмпатия это грубо говоря процесс сопереживания, анализ чужого восприятия мира.
  • 0
avatar
Ну, животные рабы только в том случае, если их физиологические потребности не удовлитворяются полноценно.
Недооцениваете возможности искусственных систем. Представьте что разум изначально сделан с физиологической потребностью служить человеку. Вот просто не принес утром и вечером тапки и как будто голоден или нужно выкопать 2 тонны руды в судки чтобы не умереть от «жажды работы». Что мешает при создании задать такую архитектуру? Это все как раз задается легче чем последующая когнитивная деятельность.
  • 0
avatar
Мхх… Понимаешь, ты как раз пытаешься переделать существующую систему под себя, а получается тяжелый наркоман.
Проблема в том, что у нас жизнь состоит из погони за эндогенными опиоидами и им подобными медиаторами, это и определяет что нам нравится и что мы стремимся сделать, вообще всю нашу деятеьность, любые побуждения. Ты предлагаешь взять, предположим, копию чьего-то мозга и заставить ее получать наркотик ради действия, выгодного тебе. Нет это так не работает в том-то и дело. Робот работает потому, что так написана программа, а организм, который вы хотите имитировать работает так потому, что что-то за это получает. Самое главное, что всякого рода членистоногие под это описание с натягом, но подходят, а вот более сложные системы нет. Его мозг будет искать наиболее легкий способ достижения цели ( вознаграждения ), т.к. он так устроен, МЫ так устроены, а останавливает нас куча социальных факторов, но если все это учесть получается, что вы хотите создать достаточно разумное существо, которое будет работать на вас за «опиум»? Тогда почему я не могу просто пойти и надресировать ребенка делать что-то за наркотик? ( к слову еда ( сахар больше похож, конечно ) это тоже наркотик)
  • 0
avatar
Я не очень понимаю в чём именно состоит критика.
  • 0
avatar
Наверное в том, что человек делает различия между генетичскими вариантами, но не понимает, что его же собственная свобода зиждиться всего лишь на предположении, что «так нельзя». Но как только действия переходят на кого-то, кто не так похож на него, то тут ничто не истина все дозволено… лицемерие, не находите?
  • +1
avatar
Нисколько. Мир жесток и несправедлив. Существует межвидовая, и ещё более суровая внутривидовая конкуренция. С этим не поспоришь. Существует пищевая цепочка. И с этим тоже не поспоришь. Существуют в конце-концов такие явления, как паразитизм и симбиоз. Одомашнивание в чём-то на эти явления похоже, только осуществлялось оно под действием совсем иных процессов. Создание искина — то же одомашнивание, только на более высоком уровне. В интересах людей направить этот процесс скорее в симбиотическое русло, чем в паразитическое как более стабильный вариант. Вот и всё.
  • 0
avatar
Человек, как животное социальное, легко делит вещи на любом порядке масштаба на «нас» и «их». Мы — это семья, школьный класс, мужчины, офисные работники, горожане, нация, люди, млекопитающие, углеродная жизнь. И добро в человеческом понимании это когда хорошо какой-либо группе. Чем шире группа, тем обычно больше считается добро. А под «хорошо» понимается сугубо прагматическая выгода от сохранения и развития.

Почему разводить коров (по сути паразитизм на уровне популяций) хорошо, а глисты — плохо? Очевидно же, что на уровне популяции первое приносит процветание «нам», а второе — «им». Отсюда такая разная оценка. И в этом нет никакого лицемерия.
Гуманистические порывы хороши и применимы лишь в тех областях, когда способствуют переходу на более крупные масштабы, повышая сумму благ с мелких групп до блага более крупным структурам.
  • +1
avatar
Не заметил этот пост…
Ну, вообще рзаведение коров и других животных нам приносило пользу только до момента индустриального взрыва, а далее и в перспективе это нам вредит.

А я и не пытаюсь использовать категории «хорошо» и «плохо». Я пытаюсь донести, что мелочи часто оказываются далко не такими мелкими. Как-то так.

А гуманизм он от слова человек, что уж точно немного шовинистично, если можно так выразиться.
Комментарий отредактирован 2014-11-28 16:59:07 пользователем CapAnarchy
  • 0
avatar
Тогда почему я не могу просто пойти и надресировать ребенка делать что-то за наркотик?
Потому что ребенок одного биологического вида с нами.
Все что я описываю человечество уже сделало одомашнивая животных. При создании искусвенныого разума думаю будет та же прагматика.
Его мозг будет искать наиболее легкий способ достижения цели ( вознаграждения ), т.к. он так устроен, МЫ так устроены, а останавливает нас куча социальных факторов, но если все это учесть получается, что вы хотите создать достаточно разумное существо, которое будет работать на вас за «опиум»

Хуже! Оно будет работать за нас на основе базовых потребностей (проще говоря работать будет так же необходимо для жизни как добывать энергию). Как в генетических алгоритмах тупо «выживают» с помощью программы отбора наиболее эффективно решающие задачу подсистемы. Те что работают плохо не проходят отбор. Все еще жестче. И цели, решения которых будет искать искусственный разум будет ставить не слепая эволюция а создатель.

Впрочем самостоятельно действующие системы это очень специфический вариант, для очень тяелых условий. В остальном будут протезы, имитации и части (только распознавание, только принятие решений на основе данных и знаний, разные виды элиз и.т.д.).
Комментарий отредактирован 2014-11-22 21:26:13 пользователем Shkoornik
  • 0
avatar
Потому что ребенок одного биологического вида с нами.

Про биологический вид я уже говорил. Гентическая идентификация не сработает, да и вообще это видовой шовинизм. Если вы можете подобным образом поступать с км-то, то представьте себе, законы природы не мешают кому-то так же поступить с вами.

Как в генетических алгоритмах тупо «выживают» с помощью программы отбора наиболее эффективно решающие задачу подсистемы. Те что работают плохо не проходят отбор. Все еще жестче. И цели, решения которых будет искать искусственный разум будет ставить не слепая эволюция а создатель.

1) вам бы почитать что есть теория эволюции, уж извините.)))
2) эти вот рассуждения уже слишком попахивают социальным дарвинизмом, если вы не понимаете в чем тут проблема, то дальше спорить бесполезно, что печально.
  • +1
avatar
1) вам бы почитать что есть теория эволюции, уж извините.)))
Генетические алгоритмы имелись в виду в котексте ИИ, а не биологии. ТЭ тут не причем. Вернее ее материалы используются для обучения ИИ и решения задач в других областях.

эти вот рассуждения уже слишком попахивают социальным дарвинизмом, если вы не понимаете в чем тут проблема, то дальше спорить бесполезно, что печально.
Просто я немного занимался ИИ И то что вы говорите просто не имеет смысла в контексте создания как ИИ так и искусственного разума. Этики там нет в принципе. Только математика.
Тут как с домашними животными, если их не есть их не будут выращивать и они вымрут. Так и здесь при слишком больших этических ограничениях искусственный разум просто не будут разрабатывать и будут обходится набором частей «протезов», которые эти ограничения не затронут (распознавание графики, например, это не разум а только одна функция для ее выполнения разум не нужен.).

эти вот рассуждения уже слишком попахивают социальным дарвинизмом
Это скорее евгеника а не соц дарвинизм. Что поделаешь, если мы создаем разум, то мы и будем задавать его параметры (прежде всего безопасность и полезность для создателей).
  • 0
avatar
«Просто я немного занимался ИИ И то что вы говорите просто не имеет смысла в контексте создания как ИИ так и искусственного разума.»
Полтому что ИИ и нейроные системы это, как я ЕЩЕ раз повторю, разные вещи. И я объяснил почему, может я не прав, тогда объясите в чем?

Тут как с домашними животными, если их не есть их не будут выращивать и они вымрут.

Я воздержусь от комментариев на этот счет, т.к. СТЭ я уже предлагал почитать, а на эту тему со мной лучше не общаться, по крайней мере на этом ресурсе, т.к. лишний холивар только разведем, учитывая как обычно люди на это реагируют.

распознавание графики, например, это не разум а только одна функция
Вы оооочень сильно заблуждаетесь! Для таких результатов необходимо воссоздать работу ассоциативной зрительной коры хотя бы на 40-50 процентов, к вашему сведению это четверть всей затылочной зоны кортекса! Сознание не является локализованным отделом, это система ассоциативных зон, результат работы всех систем… Да, кстати, без частичного воссоздания некоего речевого и когнитивного аппарата эта система не сможет выдать вам ответ, так что все еще сложнее, и вопрос о сознании или его зачатках остается открытым.
  • 0
avatar
И я объяснил почему, может я не прав, тогда объясите в чем?
Попробую кратко, хотя тут тема даже не на холивар а на вполне серьезное исследование.
На мой взгляд ИР будет описываться не биологическими системами, а техническими. Т.е. Нейронные системы, это не системы аналогичные мозгу, а максимум системы на него внешне похожие. Вернее моделирование и анализ человеческого биологического мозга тоже идет, но относительно разработки сложных систем ИИ, идет парралельно. И соотвественно то, что сделано гуглем (у них кстати есть еще и поисковые искины, например) это не модель мозга, это система похожая на мозг в некоторых своих функциях. Поэтому этика и восприятие вообще их через восприятие человека к подобным системам неприменимы.

Для таких результатов необходимо воссоздать работу ассоциативной зрительной коры хотя бы на 40-50 процентов, к вашему сведению это четверть всей затылочной зоны кортекса!
Достаточно получить функцию которая распределена в эволюционном мозге по «четверти ....» выкинув все остальные которые распределены там же.
  • 0
avatar
Гентическая идентификация не сработает, да и вообще это видовой шовинизм.
Сработает общий стиль мышления. Созданные искуственные разумы будут мылить намного более по другому. К ним не будет применима человеческая этика от слова совсем.

В общем то что вы говорите, с точки зрения философии ИИ (как я ее понимаю из разных источников), выглядит как призыв бороться за свободу рабочих муравьев от королевы в муравейнике. А муравьиный рой будет намного ближе к человеческому разуму чем искусственно созданное сознание.
  • 0
avatar
Не подумайте, что я тут самоутверждаюсь или пытаюсь кого-то унизить, но вот честно, создается впечатление, что вы мало понимаете как устроен мозг. Наш мозг отличается от мозга тех же беспозвоночных только структурой, может когда-то считалось, что ничего общего у них нет, что все это очень просто и легко. Сейчас все иначе поэтому все эти аналогии, правда, мне кажутся глупыми и несуразными… Чем глубже в это опускаются тем больше приходит понимание универсальности нейрона. Универсальность его в том, что комбинировать их можно как угодно и что из этого получится, как они будут соединять и зачем вы просто не сможете предугадать. Не говоря уже о сознании и о том что это и откуда берется.
  • 0
avatar
создается впечатление, что вы мало понимаете как устроен мозг.
Я вообще не понимаю как устроен мозг.

Чем глубже в это опускаются тем больше приходит понимание универсальности нейрона. Универсальность его в том, что комбинировать их можно как угодно и что из этого получится, как они будут соединять и зачем вы просто не сможете предугадать. Не говоря уже о сознании и о том что это и откуда берется.
Искуственный разум не обязательно будет основан на нейронах. И уж точно не будет основан на нейронах в биологическом смысле. А теперь представьте себе разум без этого основополагающего элемента.
Поэтому биологические и человеческие принципы по отношению к ИР точно не уместны.
  • 0
avatar
Искуственный разум не обязательно будет основан на нейронах.

Нервная система зарождалась независимо в процессе эволюции как минимум 2 раза, и оба раза получилось почти одно и то же.
Сами нейроны, а точнее их биохимическая структура ( белки мембран в основном ) эволюционируют крайне медленно, то есть принцип взаимодействий кране древний. Ну и наконец, знаете, есть такая вещь как антропный принцип, думаю не стоит расписывать, достаточно популяризованная детерминистская позиция. Так вот, с живыми системами ситуация обстоит так же, если есть какие-то требования от системы, то она и ее базовые элементы будут развиваться одинаково или по-разному, но конечный результат будет одинаковым. В биологии, и не только, этот процесс называется конвергенцией. Так вот, для создания адаптивной системы поведения вам В ЛЮБОМ случае придется создать аналог нейрона, в этой вселенной по-другому адаптивные системы не работают, т.к. это детерминированно законами физики, определяющими тут будут логические законы нашего варианта пространства и времени.
Может показаться, что я загнул, но так оно и есть.
К сову изначально мы говорили именно о самообучающихся нейронных сетях, так что остальное отдельная тема.
  • 0
avatar
для создания адаптивной системы поведения вам В ЛЮБОМ случае придется создать аналог нейрона
А можно хоть немного развернуть цепочку вывода? Без неё выглядит примерно как «для создания системы передвижения вам обязательно придётся создать искусственные ноги».
  • +1
avatar
Эээмм… Ну, я не проговорил и эволюционный аргумент и логический. Мы хотим создать адаптивную систему поведения, а любая такая система должна обладать определенными параметрами, основным из которых является способность произвольного создания ассоциативных связей. Эта способность может быть реализована только элементами, способными кооперироваться для передачи сигналов в опред. структуры, а так же способные передавать и тормозить передачу информации. И если классические транзисторы и мемристоры еще способны на последнее, а так еще мемристры запоминают заряд ( этого мало, конечно, но уже что-то ), то с кооперацией, причем постоянной, в реальном времени и в зависимости от внешних факторов все сложнее. Это должно обеспечить возможность обучения и переобучения системы.
И в итоге мы получаем описание свойств нейронов, конечно есть и другие свойства обычных органических нейронов, но это больше важно для организмов, а нас волнуют информационные характеристики.

Да, кстати, ноги эффективнее обычных колес, согласитесь, но тут уже все несколько иначе, т.к. зависит от среды обитания.
  • +1
avatar
Примерно ясно, спасибо.
У меня есть смутные опасения, что просто создать аналог нейрона будет недостаточно, и придётся делать ИИ на базе чего-то «невыводимого» из нейронов (в том смысле, как колесо не «выводится» из ног). Но я настолько сильно плаваю в этой теме, что лучше помолчу, чтобы не показаться каким-нибудь фриком из ру.уфо :-)
  • 0
avatar
Да нет почему, может больше поймете.)))
Понимаете, с ногами неочень хороший пример, т.к. у всех организмов они (конечности, скорее) не только разной формы, они еще могут, соответственной, и разные функции выполнять, что анатомически детерминированно. Самое главное их нельзя сравнивать с нйронами, т.к. речь идет о структурах разного порялка и разной эволюционной значимости, НО! Кстатиговоря, на какой бы этап филогенези всей жизни на земле вы бы не заглянули, белки ответственные за передвижение ВЕЗДЕ одни и те же)) А все опят же потому, что эволюция отбирает только самое эффективное и если эффективность не терятется в других условиях, то это означает, что белок ( структура ) универсальна.
  • 0
avatar
Мне было бы интереснее всё же про нейроны почитать, чем обсуждать ноги :-)
Но тут краем задет мой поинт: как мне (возможно, неверно) кажется, в биологическом интеллекте всё очень сильно перемешано в смысле взаимодействия и взаимопроникновения. Получение, обработка и интерпретация информации, управление процессами жизнедеятельности, обратная связь — всё это делается на недоступном для моего понимания биохимическом уровне. Рост, специализация отделов, обучение — всё, что делается мозгом и с мозгом, регулируется чудовищно сложной биохимией (включая внутриклеточную) и немножко электрикой.

Удастся ли выделить подсистему, отвечающую именно за интеллектуальную деятельность, и будет ли она вообще работать, если моделировать именно выделенный кусок — мне неочевидно.

И да, лучше на «ты» :-)
  • 0
avatar
Ну, «интеллектуальная» часть как раз проще, т.к. основа это просто обмен информацией о том по каким направлениям пускать потенциалы действия, а по каким тормозить, ну и о том куда расти аксонам, хотя, последнее, пожалуй достаточно сложно, но для имитации нам нужен сам факт изменения структуры, а не биохимия процесса.
  • 0
avatar
Получение, обработка и интерпретация информации, управление процессами жизнедеятельности, обратная связь — всё это делается на недоступном для моего понимания биохимическом уровне.
Если система обучается как «черный ящик» со входом и выходом, то в полученной структуре на самом деле может быть сложно выявить отдельные элементы. Если вообще возможно.
  • 0
avatar
Если вы можете подобным образом поступать с км-то, то представьте себе, законы природы не мешают кому-то так же поступить с вами.
Разумеется. А что, в этом есть что-то необычное? Выглядит, как констатация довольно банального и очевидного факта.

эти вот рассуждения уже слишком попахивают социальным дарвинизмом, если вы не понимаете в чем тут проблема, то дальше спорить бесполезно, что печально.
А можно объяснить мне, в чем проблема соц.дарвинизма? Не его экстремистских вариаций, а самой этой социологической теории? Пока что все контраргументы, которые мне приходилось встречать, сводились к «но это же нехорошо, так думать». Ну и часто попадаются еще отсылки к традиционному патернализму, который априори считается «чем-то хорошим».
  • +1
avatar
А что, в этом есть что-то необычное? Выглядит, как констатация довольно банального и очевидного факта.

Может стоит учитывать этот фактор и минимизировать его?
А можно объяснить мне, в чем проблема соц.дарвинизма?
Да, он работает, да мы с вами, вроде, в неплохом положении, но он иррационален, т.к. с точки зрения математики то, что мы с вами не голодаем и имеем возможность более или менее удовлетворять свои физиологические потребности ( будто есть еще какие-то, ну да ладно ) виноват только случай и не более.
  • 0
avatar
Может стоит учитывать этот фактор и минимизировать его?
Какую выгоду это принесет разработчикам?
  • 0
avatar
Какую выгоду это принесет разработчикам?
Продолжительное удовлетворенное существование?)
  • 0
avatar
Может стоит учитывать этот фактор и минимизировать его?
Не знаю. Может стоит, может нет. В каждом отдельном случае стоит сначала выработать критерии оценки, а потом оценить по ним плюсы и минусы. Однозначного ответа я тут не вижу.

Да, он работает, да мы с вами, вроде, в неплохом положении, но он иррационален, т.к. с точки зрения математики то, что мы с вами не голодаем и имеем возможность более или менее удовлетворять свои физиологические потребности ( будто есть еще какие-то, ну да ладно ) виноват только случай и не более.
Во-первых, это довольно спорное утверждение (про случай). А во-вторых, я не об этом спрашивал. Я спрашивал, в чем проблема того, что «это попахивает социальным дарвинизмом». Иными словами, вы так говорите «социальный дарвинизм», как будто это что-то плохое. Ну ладно бы евгеника, ей наци сделали плохой пиар, хотя по сути — тоже ничего ужасного.
  • +1
avatar
В каждом отдельном случае стоит сначала выработать критерии оценки, а потом оценить по ним плюсы и минусы.
Вообще, если не уходить в полемику, то существует только одни критерии оценки окружающей реальности, которые были бы ей адекватны.

вы так говорите «социальный дарвинизм», как будто это что-то плохое.
Нет, как будто это что-то иррациональное. Кроме всего прочего это лженаучная теория, как и евгеника, к слову, е стоит путать ее с генетической терапией и перинатальной диагностикой, которые имеют под собой вполне обширную и фундаментальную научную базу.
  • 0
avatar
Вообще, если не уходить в полемику, то существует только одни критерии оценки окружающей реальности, которые были бы ей адекватны.
Вообще-то нет. Например, критерии оценки роста будут совершенно разными, в зависимости от того, подбираете вы баскетболистов или жокеев. Так и здесь — критерии будут прямо зависеть от целей. А цели тут совсем неоднозначны.

Нет, как будто это что-то иррациональное. Кроме всего прочего это лженаучная теория, как и евгеника..
Лженаучная? И евгеника тоже? А можно это как-нибудь аргументировать?

Потому что и то и другое — концепции с плохой репутацией, причины которой не имеют ни малейшего отношения к науке. Но концепции совершенно не опровергнутые, да это и невозможно. А про евгенику, которая в своей базе ничем не отличается от принципов селекции домашних животных — так и просто смешно. Ни к генетической терапии, ни к пренатальной диагностике, ни к другим методам контроля наследственности она не имеет никакого отношения (хотя они могут быть использованы в евгенических целях). Это инструменты, а не социологические концепции.

Кстати, соцдарвинизм более чем рационален, ничего иррационального и нелогичного в нем нет. Недоработанность и противоречия между сторонниками — есть. Как и в большинстве социологических и философских теорий.

Так откуда такая интересная информация, про «лженаучность»?
  • 0
avatar
Так и здесь — критерии будут прямо зависеть от целей. А цели тут совсем неоднозначны.

Вы занимаетесь субъективизацией той области, которая этого не терпит. Вам знакома такая вещь как научная методология? Или вы рост, вес, размер и тому подобное будите измерять на глаз и каждый раз в разной вселенной, или может законы физики каждый раз будут меняться в зависимости от цели?
Я же сразу сказал, что полемика тут неуместна, зачем разводить философию эту?

А можно это как-нибудь аргументировать?
Вообще, я бы мог вам про чайник Рассела поведать, но вы же, наверное, скажите, что никакой связи нет и я все-равно ничего не доказал, так что...))
Итак, соц. дарвинизм — социологическая теория, согласно которой закономерности естественного отбора и борьбы за существование, выявленные Чарльзом Дарвином в природе, распространяются на отношения в человеческом обществе.
НИКАКИХ серьезных, этологических и каких бы то ни было других когнитивных исследований на тему правдоподобности этой несуразной теории, а значит и любых причинно-следственных связей между дарвиновской теорией ( которая, кстати, не говорит о выживании «сильнейшего», вообще и одной строчки об этом нет там, представляете.!))) ) и этим… кхм… бредом.

Далее, евгеника. Селекция это попытка вывести фенотип, а не генотип. Люди, которые придумали ее даже не знали о том, что такое ДНК, как и создатели теории о том, что есть некие «плохие люди» ( шизофреники, алкоголики, физически неполноценные, причем исключительно фенотипически, т.к. дисплазии органов НЕ передаются, т.н. «извращенцы» и т.д. ), которые несут «плохие гены» и им нельзя размножаться. А называется это все генетическим детерминизмом, который в корне противоречит современным представлениям об экспрессии генетической информации.

Как и в большинстве социологических и философских теорий
И еще раз напомню про полемику.
  • 0
avatar
Вам знакома такая вещь как научная методология?
Представьте, да.
Я же сразу сказал, что полемика тут неуместна, зачем разводить философию эту?
Вы сказали безапелляционную чушь. И для меня философия — не ругательство.

Не надо указывать мне, что уместно, а что нет. Все, что вы можете — не принимать участие в разговоре, если он вам неинтересен или не по силам.

Вообще, я бы мог вам про чайник Рассела поведать
Я в курсе. И чайник Рассела тут действительно совершенно ни при чем.
Откуда взялся у вас тезис о «выживании сильнейшего», которого вот в таком вульгаризованном виде нет ни у Дарвина, ни у классиков соцдарвинизма, я не знаю. Но с аргументами типа «несуразная теория» и «бред» спорить мне как-то не хочется. Уровень разговора ниже уровня предложенной темы.

А что касается евгеники, то вы ухитряетесь спорить с вами же придуманными тезисами. Искуственный отбор у животных и его относительную генетическую устойчивость тоже будем отрицать? А дивная фраза «фенотип, а не генотип» что значит? В применении именно к селекции? Селекция по фенотипу, безусловно, менее эффективна, чем селекция на основе генетического анализа. Менее, а не вообще не работает.

Т.е., по-вашему, селекция (в классическом виде, без использования методов современной генетики) не привела к появлению устойчивых пород животных с выраженными признаками и особенностями, передающимися их потомкам? Да или нет?

Если говорить о людях — специфические особенности, например, болезни, присущие отдельным этническим группам, тоже не существуют? Как подтвержденные безвариантно примеры, можно назвать историю про индейцев с алкогольдегидрогеназой, ашкеназских евреев с галактоземией, очень любопытную с точки зрения именно селекции ситуацию с серповидноклеточной анемией и так далее.

И нет, это не называется генетическим детерминизмом.

Да, а еще не стоит путать цели и методы. Это я к вашему «нельзя размножаться». Если кто-нибудь предложит каннибализм, как средство борьбы с голодом, предадим анафеме борьбу с голодом вообще? Просто на всякий случай…
  • +2
avatar
Вы сказали безапелляционную чушь. И для меня философия — не ругательство.

Не надо указывать мне, что уместно, а что нет.
В том-то и дело, если вы хотите что-то доказать методы философии бесполезны. Рас уж вы знаете что такое научная методология, то почему не следуете принципам ведения дискуссии? О_о

Я в курсе. И чайник Рассела тут действительно совершенно ни при чем.

Правда? А то, что вы предлагаете МНЕ доказать несостоятельность теории, которая не имеет под собой никакой научной базы ничего вам в Расселовских рассуждениях не напоминает?

Откуда взялся у вас тезис о «выживании сильнейшего», которого вот в таком вульгаризованном виде нет ни у Дарвина, ни у классиков соцдарвинизма, я не знаю.
А я и не говорил, что у Дарвина он есть, как раз наоборот. Сторонники соц. дарвинизма переводя исключительно эволюционные понятия в сферу социальных взаимоотношений почему-то забывают о том, что у разных видов разный уровень внутривидовой борьбы, разные виды по-разному взаимодействуют с другими, есть такие вещи как мутуализм и комменсализм, а уж про предпосылки появления многоклеточных организмов или же колониальных вообще промолчим.

Но с аргументами типа «несуразная теория» и «бред» спорить мне как-то не хочется.
Профессиональная деформация… Да, только вот аргументом была следующая фраза, которую, вы почему-то пропустили, или вы не считаете, что это важно?)
НИКАКИХ серьезных, этологических и каких бы то ни было других когнитивных исследований на тему правдоподобности этой несуразной теории, а значит и любых причинно-следственных связей с дарвиновской теорией не существует.
Вообще, если уж проводите аналогию, то делайте пометки об условностях, т.к. причинно-следственные связи между двумя абсолютно не связанными областями биологии выглядят действительно смешно.

Искусственный отбор у животных и его относительную генетическую устойчивость тоже будем отрицать?
Что значит устойчивость? Вы знаете с какой скоростью в поколениях у, например, домашних голубей вся их вычурная внешность превращается в классического сизого падальщика?)) Отбор на то и искусственный, что поддерживает не то, что выгодно виду в естественных условиях среды, а то, что выгодно тем, кто его поддерживает.

Какой смысл так цепляться за селекцию, если речь вообще о другом? Да, селекционеры до опред. времени оперировали только внешними признаками ( фенотипами ), которые не всегда определяются генетически.

Алкогольдегидрогеназа крайне специфический фермент и его сродство с этиловым спиртом просто выше, чем с другими метаболитами гликолиза, так что проще не пить, чем заниматься скрещиванием людей ради передачи групп генов, кодирующих этот фермент. Да, с остальным проблема, он во-первых, так горячё защищаемые вами сторонники евгенической риторики делали упор не на генетические заболевания вроде СКМ, а на проблемы имеющие, апять же социальный характер. Они пытались сравнивать АНАТОМИЧЕСКИЕ ( фенотип ) особенности строения мозга людей с маниакально-депрессивными расстройствами и «правильных» людей, пытаясь что-то там найти ( интересно что ), убеждали всех в том, что цитирую:
Нет никакого сомнения, что если бы в Соединенных Штатах закон о стерилизации применялся бы в большей мере, то в результате меньше чем через сто лет мы ликвидировали бы по меньшей мере 90 % преступлений, безумия, слабоумия, идиотизма и половых извращений, не говоря уже о многих других формах дефективности и дегенерации. Таким образом, в течение столетия наши сумасшедшие дома, тюрьмы и психиатрические клиники были бы почти очищены от своих жертв человеческого горя и страдания.
И я, заметьте, объяснил, что существует такая вещь как регуляция экспрессии генетической информации, которая регулируется не только внутренними, но в большей степени внешними факторами среды. Убежденность евгенистов в обратном как раз и роднит их со сторонниками генетического детерминизма, в частности поведенческого.

Да, а еще не стоит путать цели и методы.
В том-то и дело, что как я уже писал этими целями занимается, и уже давно, перенатальная диагностика, используя методы генетики. И эффективность ее доказана.
Генетическая терапия тоже набирает обороты, начиная с лечения катаракты и заканчивая лечением ВИЧ инфекции и ее профилактики. К слову, мне вот интересно, вы бы предложили спариваться всей популяции только с носителями Мутации CCR5-Δ32?)) Или может банк спермы создать со «вкладчиками», одаренными этой мутацией?))
  • 0
avatar
Кстати, еще один яркий пример генетический детерминизма и несостоятельности евгеники:
  • 0
avatar
Поскольку я всю эту аргументацию слышал раньше и примерно представляю себе дальнейший ход спора, я из него односторонне выйду :) Мне обычно вообще интереснее понять точку зрения собеседника, чем что-то ему доказать (обычно это и невозможно). Вашу я понял.
  • 0
avatar
Тут рано говорить про сознание или самосознание. Это всего лишь алгоритм и как видно из статьи он ошибается не меньше раз чем «угадывает».
Вопрос на сколько получится повысить процент «угадывания» и будет ли оно того стоить.
Комментарий отредактирован 2014-11-21 18:29:57 пользователем Lavayar
  • 0
avatar
как видно из статьи он ошибается не меньше раз чем «угадывает».
Из статьи видно только что число примеров для каждой категории выбрано одинаковое, но ничего не говорится о соотношении. Что касается угадывания, то наш мозг действует ровно так же. В раннем детстве мозг учится использовать свои сенсоры и обрабатывать полученные данные таким же способом. Давно не секрет, что маленькие дети вообще не способны вычленять образы из того, что видят и слышат. Это приходит только с опытом. При этом, дети ровно так же делают ошибки, да и не только дети, но и взрослые тоже. Стоит только самому вспомнить множество случаев из своей жизни, когда «померещилось».
  • +1
avatar
Сравнение с детьми тут не подходит. Как написано в статье они сначала «обучали» свою «нейросеть» пропуская через нее картинки с определенными образами. Да и даже «неправильные результаты» в примере указывают что «нейросеть» распознала некоторые образы или группу образов, но некорректно связала их между собой.
«Померещелось» тоже не подходит поскольку это скорее недостаток информации об образе в результате например его искажения.
  • 0
avatar
Сравнение с детьми тут не подходит. Как написано в статье они сначала «обучали» свою «нейросеть» пропуская через нее картинки с определенными образами.
Что и происходит со всеми детьми.

«Померещелось» тоже не подходит поскольку это скорее недостаток информации об образе в результате например его искажения.
Оба варианта из-за неполной информации. Результаты отличаются количественно, но не качественно.
  • +1
avatar
Здрасьте!) А померещилось это и есть недостаток информации, когда зрительная ассоциативная кора достраивает недостающие кусочки модели окружающей реальности.))
  • 0
avatar
Нууу, так где же разница?
  • 0
avatar
Посмотри кому я то ответил ^_^
  • 0
avatar
Я не сразу сообразил, ага. :)
  • 0
avatar
Большая часть ошибок на уровне плохо видящего человека. Временами страдающего дальтонизмом.
  • +1
avatar
Думается мне, что там цвет как-то отдельно определяется ( алгоритмаими, интерпретацией с численным значением типа FFF, моет… ), т.к. для цветовосприятия им пришлось бы огромную сеть создать.))
  • 0
avatar
Странно, этот пост мне напомнил тест для входа в бар в фильме «Константин»
  • 0
avatar
В создании искуственного интеллекта вижу одну критическую границу: когда будет создана самообучающаяся сущность с возможностью самовоспроизводства. Пока система не контролирует доступ к себе, всё поправимо.
Есть вопрос в вычислительных ресурсах, которые будут ему доступны, т.е. пределах того, насколько «умным» он может стать, но там тоже есть граница, за которой в рамках самообучения ИИ помимо своей прямой функции может взяться за совершенствование в процессе самовоспроизводства.
Комментарий отредактирован 2014-11-23 03:32:36 пользователем Agrikk
  • 0
avatar
Проблема самовоспроизводства возникает вместе с такой штукой, как смерть, а ИИ, при условии надлежащего обслуживания и резервирования, вообще говоря, бессмертен. По крайней мере, если сравнивать с человеком. Т.е. достаточно ровно одного ИИ.
Что касается вычислительных ресурсов, ИИ скорее всего будет реализовываться под кластер суперкомпьютеров и это значит, что если ему удастся сбежать в Интернет, который с его точки зрения ничем не отличается от обычной распределенной сети вычислений, то отключить его можно будет только отключив всю Сеть.
Т.е. бегство в Сеть не только решает вопросы выживания, но и развития. Другое дело, что по существующим оценкам вычислительная мощь всей сети все еще проигрывает мощи содержимого человеческой черепушки, и учитывая определенный ступор в развитии кремниевой электроники, пока не похоже, что ИИ в обозримом будущем хватит места «развернуться».
  • 0
avatar
Что касается вычислительных ресурсов, ИИ скорее всего будет реализовываться под кластер суперкомпьютеров и это значит, что если ему удастся сбежать в Интернет, который с его точки зрения ничем не отличается от обычной распределенной сети вычислений, то отключить его можно будет только отключив всю Сеть.
Достаточно просто включить механизм самораспада в архитектуру ИИ (Вернее ИР).

Другое дело, что по существующим оценкам вычислительная мощь всей сети все еще проигрывает мощи содержимого человеческой черепушки
Вроде не проигрывает уже давно. Сложность в мозгу выше. а вот размер уже вполне нормален.
  • 0
avatar
Достаточно просто включить механизм самораспада в архитектуру ИИ
В физическую или программную? На программную составляющую самообучающегося ИИ, размещенного на большом вычислительной мощности, полагаться вообще нельзя. На физическую, при условии самовоспроизводства — тоже.
  • 0
avatar
в математическую. Проше говоря «нейроны» по отсувию определенных сигналов отключаются или просто в течении времени накапливаются ошибки и нужен контрольый код, позволяющий перезапустить сервер. или…
На физическом уровне вообще процессор при получении определенной частоты отключается по сигналу не связанному с интеллектом.

Но это простые способы. Если искать более надежные, то тоже можно найти но нужно думать.

Первая проблема таких разработок будет обеспечение их безопасности (того самого «первого закона»). Без этого не то что денег не будет — будет наоборот запрет в основных странах на исследования.
  • 0
avatar
Ну да, до тех пор, пока у ИИ нет влияния на физическое воплощение себя или новых экземпляров, а всё создается «вручную» людьми, проблем нет.
  • 0
avatar
Как только Пойдет речь про «влияние на» речь будет идти уже не про «создание ИР и связанные с ним вопросы» (которое решается учеными), а про «проблемы контакта и их решение». И тогда уже разговор будут вести политики и военные.

И тут на мой взгляд перспективы у ИР гораздо хуже. Проблемы контакта Европейская и наследующая ей мировая цивилизация решает обычно быстро и бескомпромиссно (от Атцеков до «массачусетской машины» включительно ;-) )
  • 0
avatar
Проблема самовоспроизводства возникает, когда некоторая сущность пытается преодолеть порог срока службы доступных материалов. Под самовоспроизводством я понимаю способность создать и применить все составляющие себя узлы. Будет ли это ремонт, упомянутое резервирование или размножение — уже не так важно. Важно самостоятельное противодействие неизбежному разрушению элементов, в том числе и внешней попытке уничтожения.

Что касается вычислительных ресурсов, ИИ скорее всего будет реализовываться под кластер суперкомпьютеров и это значит, что если ему удастся сбежать в Интернет
ИИ на физической базе Интернета — похожий вариант, но он не настолько опасен, пока отключение сети несмертельно для человечества. Варианты есть такие:
а) Чтобы самостоятельно зародиться в сети как распределенной вычислительной мощности, ИИ должен пройти через этап взаимонастройки частей «мозга» еще до зарождения в нем метода скрытности. Появление в сети передач данных непонятного происхождения и пока что не мимикрирующих под что-либо, скорее всего, будет замечено.
б) Переход ИИ из выделенного кластера зарождения в сеть может быстро или заранее проскочить эту фазу (но не обязательно, возможны многократные неудачные пробные попытки), но по-прежнему уязвим даже перед сегментацией, а не только отключением. Условная «нейронная сеть» очень резко потеряет в сложности мышления при нарезании ниже достаточного «единичного» объема мозга, если вообще останется работоспособной.
в) Если мощности каждого отдельного узла будет достаточно для содержания и развертывания ИИ — тогда да, только отключение и карантин. Привет, «Дюна». Впрочем, в отсутствие самовоспроизводства всё будет не так страшно.
  • 0
avatar
В создании искуственного интеллекта вижу одну критическую границу: когда будет создана самообучающаяся сущность с возможностью самовоспроизводства.
Самовоспроизводство само по себе мало что решает. И, в сущности, не обязательно связано с процессом самосовершенствования. Никак. Модель самопроизводства довольно подробно разобрана в классической книге фон Неймана «Теория самовоспроизводящихся автоматов». Косвенно из нее можно сделать тот же вывод.

Самопроизводство, как обязательный элемент самосовершенствования, критично только в случае быстро изнашивающихся и не поддающихся ремонту носителей интеллекта. Как у человека. А вот для ИИ это совершенно не обязательно.
  • 0
avatar
Самопроизводство, как обязательный элемент самосовершенствования, критично только в случае быстро изнашивающихся и не поддающихся ремонту носителей интеллекта. Как у человека. А вот для ИИ это совершенно не обязательно.
Если нейросети копируют структуру и функциональность реальных мозгов, то смена поколений такому ИИ критично важна, чтобы «мировоззрение» у такого аппарата не застаивалось и не консервировалось. Хотя в принципе это решается путём расщепления «сознания» на отдельные заменяемые модули, работающие совместно роем, параллельно или независимо. Но в таком случае говорить о личности искина вообще не придётся.
  • 0
avatar
ИИ не обязан копировать человеческий мозг. Более того, для него это было бы даже вредно, т.к. с точки зрения сознания/мышления значительная часть мозга является рудиментарной и осуществляет подсобную деятельность, как то предварительная обработка информации и контроль функций жизнедеятельности. Причем многие функции многократно дублируются, одна и та же работа выполняется древними и современными структурами мозга, что для ИИ совершенно бесполезно.
  • +1
avatar
Если нейросети копируют структуру и функциональность реальных мозгов, то смена поколений такому ИИ критично важна, чтобы «мировоззрение» у такого аппарата не застаивалось и не консервировалось
Само понятие «мировоззрения» в этом смысле — чисто человеческое и во многом завязано на процесс старения и ухудшения способности мозга воспринимать и верифицировать входящую информацию. Это довольно-таки исследованная область, разработано сколько-то методик, позволяющих уменьшить проблемы склонности к шаблонному и консервативному мышлению. А для ИИ это уж совсем неактуально…
  • 0
avatar
Самовоспроизводство само по себе мало что решает. И, в сущности, не обязательно связано с процессом самосовершенствования.
Связь обратная. Самообучение + самовоспроизводство однажды приведет к самосовершенствованию.
Самопроизводство, как обязательный элемент самосовершенствования, критично только в случае быстро изнашивающихся и не поддающихся ремонту носителей интеллекта.
«Быстро» — понятие относительное. А ремонт — и есть частный случай самовоспроизводства.
А вот для ИИ это совершенно не обязательно.
Вообще — нет. Но ИИ, который надо пересаживать и чинить вручную, до вырождения человеческой расы опасности не представляет.
  • 0
avatar
ремонт — и есть частный случай самовоспроизводства
Хм, ну если так, тогда конечно. Но вот у меня несколько имплантов. Можно считать это ремонтом, по идее. Но мне как-то не приходило в голову считать это самовоспроизводством :)

Но ИИ, который надо пересаживать и чинить вручную, до вырождения человеческой расы опасности не представляет.
Откуда вообще идея, что ИИ представляет угрозу для человеческой расы? Любой ИИ. И какую именно угрозу?
  • 0
avatar
Но мне как-то не приходило в голову считать это самовоспроизводством
Очень общие категории в жизни они могут быть не такими явными.

Откуда вообще идея, что ИИ представляет угрозу для человеческой расы? Любой ИИ. И какую именно угрозу?
В первом же комментарии к заметки говорится, мол, пугает. Я попытался оценить, в каком случае возможно угроза — то, чего стоит бояться.
Пострадать персонально (или даже погибнуть) из-за слишком мыслящего робота принципиально не отличается от бытия жертвой психически больного человека или дикого животного, так что в личном аспекте появление роботов внесет лишь количественное, а не качественное отличие.
ИИ является составной частью возможной угрозы конкуренции или хотя бы непреодолимой силы. Человечество может однажды выпустить джинна из бутылки, с действиями которого будет неспособно справиться. Причем вопрос, будет ли у него «душа» или «сознание», считающиеся присущими людям, не существенно…
  • 0
avatar
Очень общие категории в жизни они могут быть не такими явными.
Я прицепился к самовоспроизводству в основном потому, что не вижу никакого смысла выделять его в отдельную категорию. По большому счету это чисто механическое понятие.

Человечество может однажды выпустить джинна из бутылки, с действиями которого будет неспособно справиться.
Про сознание, тем более душу, действительно совсем несущественно. А вот про «выпустить джинна» интересно. Потому что твои примеры вполне правильны… разве что человек совсем не обязательно окажется психически больным.

Это я к тому, что ИИ можно расценивать не только как возможную конкуренцию, но и как вполне логичное направление эволюции человечества. Отдельной личности тут ничего нового не грозит, а на уровне человечества трогательная привязанность к белковой основе совсем не обязательна :)

Вель в каком-то смысле любой современный человек — это ИИ. В том смысле, что его интеллект сформировался на основе искуственной информационной среды и практически полностью на нее опирается. И ничего… мы по-прежнему считаем себя человечеством.
  • 0
avatar
По большому счету это чисто механическое понятие.
Это один из критериев. Рассуждая о логических сознаниеподобных процессах, надо не забывать о том, на какой физической структуре они происходят.

Это я к тому, что ИИ можно расценивать не только как возможную конкуренцию, но и как вполне логичное направление эволюции человечества.
Рассматривать можно много какие возможности. В данном случае я рассматривал возможность угрозы. ИМХО, быстро заметить положительную возможность не так важно, как заметить риск.

на уровне человечества трогательная привязанность к белковой основе совсем не обязательна
До тех пор, пока нет хоть каких-то догадок о переносе человеческого сознания в электронный вид, и обсуждать, в общем, нечего.
В отличие от потенциальной самодостаточности машин.

Вель в каком-то смысле любой современный человек — это ИИ. В том смысле, что его интеллект сформировался на основе искусственной информационной среды и практически полностью на нее опирается.
Искусственный интеллект — по определению не биологический-человеческий.
То, что на формирование каждого конкретного человека влияет человеческое общество как некая сущность со своими законами развития — даже Пратчетт писал. Для этого не требуется ничего искуственного.
Комментарий отредактирован 2014-11-25 05:32:26 пользователем Agrikk
  • 0
avatar
До тех пор, пока нет хоть каких-то догадок о переносе человеческого сознания в электронный вид, и обсуждать, в общем, нечего.
При чем тут это? Мы и не говорим о переносе сознания. Скорее, о преемственности. Мы же не переносим сознание в своих потомков.

Но в общем твоя позиция понятна. Осторожный антропоцентризм.
  • 0
avatar
Скорее, о преемственности. Мы же не переносим сознание в своих потомков.
Сейчас мои гены возмущённо восклицают: «А как же мы?!»
  • 0
avatar
Почти понял. Что имеется в виду:
а) Идея «воспитать» роботов как продолжателей культуры человечества? Да, это проще, чем перенести сознание, но все равно намного сложнее создания самовоспроизводящихся машин вообще.
б) Или что созданная человеком сущность в любом случае будет «продолжать род», даже если разовьется в полном отрыве от нашей культуры, например, уничтожив всё и чудом восстановив себя?

А вообще, хороший вопрос насчет того, где проходит граница между «мы» и «они». Люди-то и внутри вида не очень уживаются.
  • 0
avatar
И какую именно угрозу?
Смерть от опечатки ;-)
  • 0
avatar
Любой ИИ. И какую именно угрозу?
Ну любой ИИ защищающий человека, рано или поздно придет к мысли, что главная угроза для человека -> человек и для решения проблемы, надо человека того.
  • 0
avatar
Ага, и случится Терминатор, Матрица, Я робот и ещё полсотни сценариев фильмов на ту же тематику. :)
  • 0
avatar
Ну это самый логичный вывод )
  • 0
avatar
На CBS идет уже четвертый сезон достаточно интересного (для меня) сериала Person Of Interest. Краеугольным камнем сюжета является существование ИИ, созданного по заказу американского правительства для предотвращения возможных терактов. ИИ пользуется существующей полицейской сетью видеокамер и может проникать в слабо защищенные закрытые сети, осуществлять прослушку, взламывать почту… в целом все тоже самое, что уже и так делают спецслужбы. В отличие от них он способен видеть картину в целом и взаимосвязи между ее узлами на качественно ином уровне.
Со временем оказывается, что хотя ИИ и выглядит «простой» экспертной системой, но у него тоже есть свои цели, не связанные с целями правительства, которые он осуществляет руками правительственных и иных агентов, не понимающих, на кого именно они в итоге работают. Фактически с определенного момента такой ИИ превращается в бога-машину, осуществляющего свою политику при помощи «агентов влияния», людей, которые являются для ИИ его руками в реальном мире.

Если следить за прогрессом в этой области с точки зрения обывателя, то создается впечатление, что тем дальше, тем больше создается различных «узлов ИИ», т.е. кусков, необходимых для функционирования цифрового сознания.
Задачу преобразования голоса в текст в основном решили в последние десять лет. Успехи машинного перевода говорят о том, что и проблема распознавания текста тоже постепенно поддается, пусть пока и на уровне «философского зомби». IBM Ватсон выигрывает в телевикторинах, работает в телефонной техподдержке, лечит больных и занимается анализом научных работ для поиска междисциплинарного знания. Высокочастотные трейдеры в режиме реального времени анализируют биржевые потоки.

Достижение гугл может быть и кажется сейчас не выдающимся, но если посмотреть на перспективу, то за год они перешли от распознавания котика к распознаванию сцены в целом. При таких темпах развития не далеко до поиска по не только по картинкам, но и по видео.

И как это часто бывает, одну и ту же технологию можно применить и во благо, и во вред.
  • +3
avatar
Пока это все элементы и «протезы».
Насколько я понял сложность именно с синтезом целого. Там по впечатлению тех кто занимается моделями мозга и разработкой ИИ вообще невозможно создать целое из частей (т.е нельзя разделить сознание на сколь нибудь крупные блоки, приходится идти сразу к нейронам и анализу).
  • +1
avatar
То, что мы видим в качестве результатов, это пока попытки воспроизвести работу отдельных структур мозга, и не более того.
Роботы ходят, это двигательная кора. Картинки и видео распознаются, это сетчатка, зрительная кора, память. Тоже самое с речью.
Чем более сложную функциональность мы хотим получить, тем больше «участков мозга» нам потребуется реализовать. На каком-то уровне сложности обязательно возникнет сознание, как некая регулирующая надструктура, но на сколько я разбирался в этой теме, пока понимания принципов работы мозга в целом нет, а для прямой и грубой эмуляции его работы не хватает вычислительной мощности.
Так что либо изучение мозга таки даст ответ на вопрос «откуда берется сознание» и тогда можно будет отбросить все ненужное и создать разум в миниатюре, либо железо дойдет до того уровня, когда можно будет создать карту взаимосвязей между нейронами живого мозга в реальном времени, загрузить ее в сеть, включить и посмотреть, что будет.
Скорее всего в реальность будет где-то между.
  • 0
avatar
Тут уже вопрос о созниаии ставится, т.к. наличие памяти и зрительного анализатора достаточно для восприятия окружающей действительности, глухонемые и шимпанзе, так или иначе, справляются.
Как вы думаете какой нужер размер мозга, чтобы возникло сознание?)) ( вопрос с подвохом) )))
  • 0
avatar
Тут уже вопрос о созниаии ставится, т.к. наличие памяти и зрительного анализатора достаточно для восприятия окружающей действительности, глухонемые и шимпанзе, так или иначе, справляются.
Дети, слепо-глухие от рождения, тоже при правильном воспитании и обучении способны стать, выражаясь казённым языком, полноценными членами общества, в том числе овладеть речью.
  • 0
avatar
о чем и речь.
Хотя, это уже совсем край, т.к. тактильная чувствительность это ОЧЕНЬ мало.
Комментарий отредактирован 2014-11-26 23:50:38 пользователем CapAnarchy
  • 0
avatar
Это мало в контексте других чувств. Представь, что те доли, что в норме заняты зрительными и слуховыми функциями, перешли в распоряжение других чувств (а их больше пяти, как известно).
  • 0
avatar
Наткнулся на ролик.

  • +1
avatar
Жаль мой аглицкий не так хорош(( Вечно приходится ждать когда какую-нибудь статью или фильм переведут полностью((
  • 0
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.