Алгоритмы распознавания изображений далеко не новы. Каждый из нас хоть раз, да пользовался сервисами поиска картинок от Гугла и Яндекса. Но теперь исследователи из лаборатории Гугл обнародовали информацию о новом методе на основе искусственных нейронных сетей. Теперь робот может не просто распознавать и вычленять объекты на изображении, но и объяснять человеческим языком что он видит на картинке. Иными словами у робота создаётся связь между объектом и его названием. При этом объект, например собака, может выглядеть совершенно иначе на разных примерах, но обобщаться одним понятием. А это уже, дорогие друзья, семантика — когда у слова появляется смысл, привязка знака к объекту из реальности. Вспомним проблему «Китайской комнаты», не это ли её решение? Мне кажется, это событие очень большого масштаба, ещё одна ступень в развитии искусственного интеллекта. Воистину мы живём в будущем.
Источники:
googleresearch.blogspot.co.uk/2014/11/a-picture-is-worth-thousand-coherent.html
geektimes.ru/post/241726/
cs.stanford.edu/people/karpathy/deepimagesent/?hn
102 комментария
Как человека не далекого от всего этого мня больше пугало, пугает и будет пугать именно возможность построения подобных ассоциативных связей, их накопление и последующая комбинативная обработка. Все же когнитивная деятельность не для роботов…
Мы между собой и с другими видами ужиться-то не можем, а уж про это вообще молчу. Лишние проблемы… Лучше бы они разрабатывали неинвазивные методы изучения нейронных систем уже существующих.))
Ты мне напоминаешь людей, которые при любом удобном случае критикуют космические программы и БАК в стиле «лучше бы они дороги строили, с бедностью/голодом/болезнями сражались». Дороги строить — это хорошее дело, но вот это указывание что кому и чего делать — это просто некрасиво. Я даже в этом случае возмущения понять не могу, потому что это частная лаборатория, которая не живёт с налогов, субсидий и госфондов.
Суть в том, что это не несет никакой пользы, и я не о ЦЕРНе сейчас говорю. Есть большая разница между наращиванием вычислительных мощностей и созданием ИИ ( да, ИИ и искусственные нейронные сети это кардинально разные вещи, как таракан и сорока ). Подобные адаптивные системы — попытка игры с чужими жизнями и создание искусственных рабов, как бы странно это не звучало.
А сети, они развиваются, да пока это тараканы и черви, но это только пока, к слову, этих «червей» заставляют заниматься именно ВНД, а не детерминированным поведением, это тоже очень важно помнить. Когда-то бытовало мнение, что количество нейронов определяет когнитивные способности и, возможно, рассудочную деятельность, но на практике все оказалось совсем не так. Количество, конечно, важно, но до опред. пределов, а потом уж важно то, что в процессорах называют архитектурой.
Во первых искуственное сознание не будет человекоподобным. ну просто потому что создателям это будет не нужно. Следовательно рабство и прочие человеческие критерии к искуственному разуму будут неприемлемы. Если разум бодет создан служить и помогать, то поверьте никакого желания свободы и самостоятельности там не будет. Более того ему можно будет поставить нужные базовые рефлексы вместо тех то есть у живых разумов (саомосохранение и размножение не обязательны для созданного разума.).
Во вторых изучая сознание конструктивным образом у нас будет больше материала для анализа и понимания естественных сознаний. Т.е. как минимум это даст большую эффективность в лечении психологических траблов, как максимум позволит расширить используемые ресурсы мозга
А искусственные рабы давно уже есть и сознание (даже интеллект) им не требуется промышленные рабы это руки с алгоритмом, Военные рабы это беспилотники и дроны, бытовые рабы это щетка с алгоритмом «ездить покрывая все пространство». Раб с сознанием
убыточенизбыточен, а следовательно не нужен.Спешу вас огорчить, но само понятие вида — биологическая условность.
«саомосохранение и размножение не обязательны для созданного разума.» Любая адаптивная система направлена на саморазвитие и совершенствование ( обучение ). Для этой системы необходима мотивация. Если ты создаешь ИИ, то его обучение это в большей степени готовая программа, а адаптивная система ( нейронная ) имеет цель, причем она сама может ее себе поставить, это называется доминантой. Без подобной структуры это будет именно искусственный интеллект, а не то, что пытаются создать эти ребята.
Нет не даст. Для этого необходимо воссоздани не коры, а лимбической системы и системы гуморальной регуляции, что и приводит нас обратно к созданию искусственного человекоподобнго мозга. НО! Даже если вы создадите НЕчеловекоподобную адаптивную систему вы не можете быть уверены в том, что она не самоорганизуется как ей выгодно, т.к. эта система не программируется вообще а самообучается с самого начала ( за исключением базовой программы эмуляции синаптических связей ), в этом кардинальная разница между ИИ и системами нейронов. Ко всему прочему вы представляете на сколько сильно могут различаться системы адаптивного поведения?)) В свое время люди, изучавшие беспозвоночных, назвали отделы нервной системы головоногих ганглиями, т.к. это на столько было непохоже на мозг не то что человека, а вообще позвоночных животных. Это была абсолютно децинтрализованная нервная система, а самое забавное то, что уровень когнитивных способностей цефалопод сравним с человекообразными и врановыми, т.к. те способны на создание орудий труда и многие другие сложные когнитивные «вуаля». Так что говорить о том, что система будет такой, какой захотят создатели некорректно по определению, она будет такой, какой она захочет быть, точнее какой ее сделает среда, но «програмирование средой», то есть то, что называется для животных дрессурой, а для людей почему-то воспитанием, малоэффективный, малопредсказуемый и крайне долгий процесс.
«Раб с сознанием убыточен избыточен, а следовательно не нужен.» Раб без сознания уже не раб, это как-то глупо. О_о
К слову, те же собаки делают это все не просто так а за вознаграждение, у них есть свой корыстный интерес, кроме того они достаточно социальные животные. И любая подобная система будет работать на себя. Хотя, тут еще много всего можно обсудить вплодь до патернализма, прав животых и т.д. и т.п.
Прости, может не стоит это тут разводить, но это такое оправдание?) Для меня это звучит очень лицемерно, особенно после упоминания собак, положение у них немного разное, как и отношение к ним.
У собак, как и у других социальных животных, сильно развита эмпатия, и то, что нравится вожаку (хозяину), то нравится псу. Конечно, они пользуются любой возможностью порадовать хозяев.
Конечно разное. У тех же собак очень разное положение в зависимости от вида хозяйства. В городских квартирах они живут в своё удовольствие, едят качественный корм, посещают ветеринара. На селе к собакам совсем другое отношение.
Нет, подожди, иерархия это одно, а эмпатия врожденная икакого отношения к этому не имеет, ну может косвенное. Но эмпатия это грубо говоря процесс сопереживания, анализ чужого восприятия мира.
Проблема в том, что у нас жизнь состоит из погони за эндогенными опиоидами и им подобными медиаторами, это и определяет что нам нравится и что мы стремимся сделать, вообще всю нашу деятеьность, любые побуждения. Ты предлагаешь взять, предположим, копию чьего-то мозга и заставить ее получать наркотик ради действия, выгодного тебе. Нет это так не работает в том-то и дело. Робот работает потому, что так написана программа, а организм, который вы хотите имитировать работает так потому, что что-то за это получает. Самое главное, что всякого рода членистоногие под это описание с натягом, но подходят, а вот более сложные системы нет. Его мозг будет искать наиболее легкий способ достижения цели ( вознаграждения ), т.к. он так устроен, МЫ так устроены, а останавливает нас куча социальных факторов, но если все это учесть получается, что вы хотите создать достаточно разумное существо, которое будет работать на вас за «опиум»? Тогда почему я не могу просто пойти и надресировать ребенка делать что-то за наркотик? ( к слову еда ( сахар больше похож, конечно ) это тоже наркотик)
Почему разводить коров (по сути паразитизм на уровне популяций) хорошо, а глисты — плохо? Очевидно же, что на уровне популяции первое приносит процветание «нам», а второе — «им». Отсюда такая разная оценка. И в этом нет никакого лицемерия.
Гуманистические порывы хороши и применимы лишь в тех областях, когда способствуют переходу на более крупные масштабы, повышая сумму благ с мелких групп до блага более крупным структурам.
Ну, вообще рзаведение коров и других животных нам приносило пользу только до момента индустриального взрыва, а далее и в перспективе это нам вредит.
А я и не пытаюсь использовать категории «хорошо» и «плохо». Я пытаюсь донести, что мелочи часто оказываются далко не такими мелкими. Как-то так.
А гуманизм он от слова человек, что уж точно немного шовинистично, если можно так выразиться.
Все что я описываю человечество уже сделало одомашнивая животных. При создании искусвенныого разума думаю будет та же прагматика.
Хуже! Оно будет работать за нас на основе базовых потребностей (проще говоря работать будет так же необходимо для жизни как добывать энергию). Как в генетических алгоритмах тупо «выживают» с помощью программы отбора наиболее эффективно решающие задачу подсистемы. Те что работают плохо не проходят отбор. Все еще жестче. И цели, решения которых будет искать искусственный разум будет ставить не слепая эволюция а создатель.
Впрочем самостоятельно действующие системы это очень специфический вариант, для очень тяелых условий. В остальном будут протезы, имитации и части (только распознавание, только принятие решений на основе данных и знаний, разные виды элиз и.т.д.).
Про биологический вид я уже говорил. Гентическая идентификация не сработает, да и вообще это видовой шовинизм. Если вы можете подобным образом поступать с км-то, то представьте себе, законы природы не мешают кому-то так же поступить с вами.
1) вам бы почитать что есть теория эволюции, уж извините.)))
2) эти вот рассуждения уже слишком попахивают социальным дарвинизмом, если вы не понимаете в чем тут проблема, то дальше спорить бесполезно, что печально.
Просто я немного занимался ИИ И то что вы говорите просто не имеет смысла в контексте создания как ИИ так и искусственного разума. Этики там нет в принципе. Только математика.
Тут как с домашними животными, если их не есть их не будут выращивать и они вымрут. Так и здесь при слишком больших этических ограничениях искусственный разум просто не будут разрабатывать и будут обходится набором частей «протезов», которые эти ограничения не затронут (распознавание графики, например, это не разум а только одна функция для ее выполнения разум не нужен.).
Это скорее евгеника а не соц дарвинизм. Что поделаешь, если мы создаем разум, то мы и будем задавать его параметры (прежде всего безопасность и полезность для создателей).
Полтому что ИИ и нейроные системы это, как я ЕЩЕ раз повторю, разные вещи. И я объяснил почему, может я не прав, тогда объясите в чем?
Я воздержусь от комментариев на этот счет, т.к. СТЭ я уже предлагал почитать, а на эту тему со мной лучше не общаться, по крайней мере на этом ресурсе, т.к. лишний холивар только разведем, учитывая как обычно люди на это реагируют.
Вы оооочень сильно заблуждаетесь! Для таких результатов необходимо воссоздать работу ассоциативной зрительной коры хотя бы на 40-50 процентов, к вашему сведению это четверть всей затылочной зоны кортекса! Сознание не является локализованным отделом, это система ассоциативных зон, результат работы всех систем… Да, кстати, без частичного воссоздания некоего речевого и когнитивного аппарата эта система не сможет выдать вам ответ, так что все еще сложнее, и вопрос о сознании или его зачатках остается открытым.
На мой взгляд ИР будет описываться не биологическими системами, а техническими. Т.е. Нейронные системы, это не системы аналогичные мозгу, а максимум системы на него внешне похожие. Вернее моделирование и анализ
человеческогобиологического мозга тоже идет, но относительно разработки сложных систем ИИ, идет парралельно. И соотвественно то, что сделано гуглем (у них кстати есть еще и поисковые искины, например) это не модель мозга, это система похожая на мозг в некоторых своих функциях. Поэтому этика и восприятие вообще их через восприятие человека к подобным системам неприменимы.Достаточно получить функцию которая распределена в эволюционном мозге по «четверти ....» выкинув все остальные которые распределены там же.
В общем то что вы говорите, с точки зрения философии ИИ (как я ее понимаю из разных источников), выглядит как призыв бороться за свободу рабочих муравьев от королевы в муравейнике. А муравьиный рой будет намного ближе к человеческому разуму чем искусственно созданное сознание.
Искуственный разум не обязательно будет основан на нейронах. И уж точно не будет основан на нейронах в биологическом смысле. А теперь представьте себе разум без этого основополагающего элемента.
Поэтому биологические и человеческие принципы по отношению к ИР точно не уместны.
Нервная система зарождалась независимо в процессе эволюции как минимум 2 раза, и оба раза получилось почти одно и то же.
Сами нейроны, а точнее их биохимическая структура ( белки мембран в основном ) эволюционируют крайне медленно, то есть принцип взаимодействий кране древний. Ну и наконец, знаете, есть такая вещь как антропный принцип, думаю не стоит расписывать, достаточно популяризованная детерминистская позиция. Так вот, с живыми системами ситуация обстоит так же, если есть какие-то требования от системы, то она и ее базовые элементы будут развиваться одинаково или по-разному, но конечный результат будет одинаковым. В биологии, и не только, этот процесс называется конвергенцией. Так вот, для создания адаптивной системы поведения вам В ЛЮБОМ случае придется создать аналог нейрона, в этой вселенной по-другому адаптивные системы не работают, т.к. это детерминированно законами физики, определяющими тут будут логические законы нашего варианта пространства и времени.
Может показаться, что я загнул, но так оно и есть.
К сову изначально мы говорили именно о самообучающихся нейронных сетях, так что остальное отдельная тема.
И в итоге мы получаем описание свойств нейронов, конечно есть и другие свойства обычных органических нейронов, но это больше важно для организмов, а нас волнуют информационные характеристики.
Да, кстати, ноги эффективнее обычных колес, согласитесь, но тут уже все несколько иначе, т.к. зависит от среды обитания.
У меня есть смутные опасения, что просто создать аналог нейрона будет недостаточно, и придётся делать ИИ на базе чего-то «невыводимого» из нейронов (в том смысле, как колесо не «выводится» из ног). Но я настолько сильно плаваю в этой теме, что лучше помолчу, чтобы не показаться каким-нибудь фриком из ру.уфо :-)
Понимаете, с ногами неочень хороший пример, т.к. у всех организмов они (конечности, скорее) не только разной формы, они еще могут, соответственной, и разные функции выполнять, что анатомически детерминированно. Самое главное их нельзя сравнивать с нйронами, т.к. речь идет о структурах разного порялка и разной эволюционной значимости, НО! Кстатиговоря, на какой бы этап филогенези всей жизни на земле вы бы не заглянули, белки ответственные за передвижение ВЕЗДЕ одни и те же)) А все опят же потому, что эволюция отбирает только самое эффективное и если эффективность не терятется в других условиях, то это означает, что белок ( структура ) универсальна.
Но тут краем задет мой поинт: как мне (возможно, неверно) кажется, в биологическом интеллекте всё очень сильно перемешано в смысле взаимодействия и взаимопроникновения. Получение, обработка и интерпретация информации, управление процессами жизнедеятельности, обратная связь — всё это делается на недоступном для моего понимания биохимическом уровне. Рост, специализация отделов, обучение — всё, что делается мозгом и с мозгом, регулируется чудовищно сложной биохимией (включая внутриклеточную) и немножко электрикой.
Удастся ли выделить подсистему, отвечающую именно за интеллектуальную деятельность, и будет ли она вообще работать, если моделировать именно выделенный кусок — мне неочевидно.
И да, лучше на «ты» :-)
А можно объяснить мне, в чем проблема соц.дарвинизма? Не его экстремистских вариаций, а самой этой социологической теории? Пока что все контраргументы, которые мне приходилось встречать, сводились к «но это же нехорошо, так думать». Ну и часто попадаются еще отсылки к традиционному патернализму, который априори считается «чем-то хорошим».
Может стоит учитывать этот фактор и минимизировать его?
Да, он работает, да мы с вами, вроде, в неплохом положении, но он иррационален, т.к. с точки зрения математики то, что мы с вами не голодаем и имеем возможность более или менее удовлетворять свои физиологические потребности ( будто есть еще какие-то, ну да ладно ) виноват только случай и не более.
Во-первых, это довольно спорное утверждение (про случай). А во-вторых, я не об этом спрашивал. Я спрашивал, в чем проблема того, что «это попахивает социальным дарвинизмом». Иными словами, вы так говорите «социальный дарвинизм», как будто это что-то плохое. Ну ладно бы евгеника, ей наци сделали плохой пиар, хотя по сути — тоже ничего ужасного.
Нет, как будто это что-то иррациональное. Кроме всего прочего это лженаучная теория, как и евгеника, к слову, е стоит путать ее с генетической терапией и перинатальной диагностикой, которые имеют под собой вполне обширную и фундаментальную научную базу.
Лженаучная? И евгеника тоже? А можно это как-нибудь аргументировать?
Потому что и то и другое — концепции с плохой репутацией, причины которой не имеют ни малейшего отношения к науке. Но концепции совершенно не опровергнутые, да это и невозможно. А про евгенику, которая в своей базе ничем не отличается от принципов селекции домашних животных — так и просто смешно. Ни к генетической терапии, ни к пренатальной диагностике, ни к другим методам контроля наследственности она не имеет никакого отношения (хотя они могут быть использованы в евгенических целях). Это инструменты, а не социологические концепции.
Кстати, соцдарвинизм более чем рационален, ничего иррационального и нелогичного в нем нет. Недоработанность и противоречия между сторонниками — есть. Как и в большинстве социологических и философских теорий.
Так откуда такая интересная информация, про «лженаучность»?
Вы занимаетесь субъективизацией той области, которая этого не терпит. Вам знакома такая вещь как научная методология? Или вы рост, вес, размер и тому подобное будите измерять на глаз и каждый раз в разной вселенной, или может законы физики каждый раз будут меняться в зависимости от цели?
Я же сразу сказал, что полемика тут неуместна, зачем разводить философию эту?
Вообще, я бы мог вам про чайник Рассела поведать, но вы же, наверное, скажите, что никакой связи нет и я все-равно ничего не доказал, так что...))
Итак, соц. дарвинизм — социологическая теория, согласно которой закономерности естественного отбора и борьбы за существование, выявленные Чарльзом Дарвином в природе, распространяются на отношения в человеческом обществе.
НИКАКИХ серьезных, этологических и каких бы то ни было других когнитивных исследований на тему правдоподобности этой несуразной теории, а значит и любых причинно-следственных связей между дарвиновской теорией ( которая, кстати, не говорит о выживании «сильнейшего», вообще и одной строчки об этом нет там, представляете.!))) ) и этим… кхм… бредом.
Далее, евгеника. Селекция это попытка вывести фенотип, а не генотип. Люди, которые придумали ее даже не знали о том, что такое ДНК, как и создатели теории о том, что есть некие «плохие люди» ( шизофреники, алкоголики, физически неполноценные, причем исключительно фенотипически, т.к. дисплазии органов НЕ передаются, т.н. «извращенцы» и т.д. ), которые несут «плохие гены» и им нельзя размножаться. А называется это все генетическим детерминизмом, который в корне противоречит современным представлениям об экспрессии генетической информации.
И еще раз напомню про полемику.
Вы сказали безапелляционную чушь. И для меня философия — не ругательство.
Не надо указывать мне, что уместно, а что нет. Все, что вы можете — не принимать участие в разговоре, если он вам неинтересен или не по силам.
Я в курсе. И чайник Рассела тут действительно совершенно ни при чем.
Откуда взялся у вас тезис о «выживании сильнейшего», которого вот в таком вульгаризованном виде нет ни у Дарвина, ни у классиков соцдарвинизма, я не знаю. Но с аргументами типа «несуразная теория» и «бред» спорить мне как-то не хочется. Уровень разговора ниже уровня предложенной темы.
А что касается евгеники, то вы ухитряетесь спорить с вами же придуманными тезисами. Искуственный отбор у животных и его относительную генетическую устойчивость тоже будем отрицать? А дивная фраза «фенотип, а не генотип» что значит? В применении именно к селекции? Селекция по фенотипу, безусловно, менее эффективна, чем селекция на основе генетического анализа. Менее, а не вообще не работает.
Т.е., по-вашему, селекция (в классическом виде, без использования методов современной генетики) не привела к появлению устойчивых пород животных с выраженными признаками и особенностями, передающимися их потомкам? Да или нет?
Если говорить о людях — специфические особенности, например, болезни, присущие отдельным этническим группам, тоже не существуют? Как подтвержденные безвариантно примеры, можно назвать историю про индейцев с алкогольдегидрогеназой, ашкеназских евреев с галактоземией, очень любопытную с точки зрения именно селекции ситуацию с серповидноклеточной анемией и так далее.
И нет, это не называется генетическим детерминизмом.
Да, а еще не стоит путать цели и методы. Это я к вашему «нельзя размножаться». Если кто-нибудь предложит каннибализм, как средство борьбы с голодом, предадим анафеме борьбу с голодом вообще? Просто на всякий случай…
Правда? А то, что вы предлагаете МНЕ доказать несостоятельность теории, которая не имеет под собой никакой научной базы ничего вам в Расселовских рассуждениях не напоминает?
А я и не говорил, что у Дарвина он есть, как раз наоборот. Сторонники соц. дарвинизма переводя исключительно эволюционные понятия в сферу социальных взаимоотношений почему-то забывают о том, что у разных видов разный уровень внутривидовой борьбы, разные виды по-разному взаимодействуют с другими, есть такие вещи как мутуализм и комменсализм, а уж про предпосылки появления многоклеточных организмов или же колониальных вообще промолчим.
Профессиональная деформация… Да, только вот аргументом была следующая фраза, которую, вы почему-то пропустили, или вы не считаете, что это важно?)
Вообще, если уж проводите аналогию, то делайте пометки об условностях, т.к. причинно-следственные связи между двумя абсолютно не связанными областями биологии выглядят действительно смешно.
Что значит устойчивость? Вы знаете с какой скоростью в поколениях у, например, домашних голубей вся их вычурная внешность превращается в классического сизого падальщика?)) Отбор на то и искусственный, что поддерживает не то, что выгодно виду в естественных условиях среды, а то, что выгодно тем, кто его поддерживает.
Какой смысл так цепляться за селекцию, если речь вообще о другом? Да, селекционеры до опред. времени оперировали только внешними признаками ( фенотипами ), которые не всегда определяются генетически.
Алкогольдегидрогеназа крайне специфический фермент и его сродство с этиловым спиртом просто выше, чем с другими метаболитами гликолиза, так что проще не пить, чем заниматься скрещиванием людей ради передачи групп генов, кодирующих этот фермент. Да, с остальным проблема, он во-первых, так горячё защищаемые вами сторонники евгенической риторики делали упор не на генетические заболевания вроде СКМ, а на проблемы имеющие, апять же социальный характер. Они пытались сравнивать АНАТОМИЧЕСКИЕ ( фенотип ) особенности строения мозга людей с маниакально-депрессивными расстройствами и «правильных» людей, пытаясь что-то там найти ( интересно что ), убеждали всех в том, что цитирую: И я, заметьте, объяснил, что существует такая вещь как регуляция экспрессии генетической информации, которая регулируется не только внутренними, но в большей степени внешними факторами среды. Убежденность евгенистов в обратном как раз и роднит их со сторонниками генетического детерминизма, в частности поведенческого.
В том-то и дело, что как я уже писал этими целями занимается, и уже давно, перенатальная диагностика, используя методы генетики. И эффективность ее доказана.
Генетическая терапия тоже набирает обороты, начиная с лечения катаракты и заканчивая лечением ВИЧ инфекции и ее профилактики. К слову, мне вот интересно, вы бы предложили спариваться всей популяции только с носителями Мутации CCR5-Δ32?)) Или может банк спермы создать со «вкладчиками», одаренными этой мутацией?))
Вопрос на сколько получится повысить процент «угадывания» и будет ли оно того стоить.
«Померещелось» тоже не подходит поскольку это скорее недостаток информации об образе в результате например его искажения.
Оба варианта из-за неполной информации. Результаты отличаются количественно, но не качественно.
Есть вопрос в вычислительных ресурсах, которые будут ему доступны, т.е. пределах того, насколько «умным» он может стать, но там тоже есть граница, за которой в рамках самообучения ИИ помимо своей прямой функции может взяться за совершенствование в процессе самовоспроизводства.
Что касается вычислительных ресурсов, ИИ скорее всего будет реализовываться под кластер суперкомпьютеров и это значит, что если ему удастся сбежать в Интернет, который с его точки зрения ничем не отличается от обычной распределенной сети вычислений, то отключить его можно будет только отключив всю Сеть.
Т.е. бегство в Сеть не только решает вопросы выживания, но и развития. Другое дело, что по существующим оценкам вычислительная мощь всей сети все еще проигрывает мощи содержимого человеческой черепушки, и учитывая определенный ступор в развитии кремниевой электроники, пока не похоже, что ИИ в обозримом будущем хватит места «развернуться».
Вроде не проигрывает уже давно. Сложность в мозгу выше. а вот размер уже вполне нормален.
На физическом уровне вообще процессор при получении определенной частоты отключается по сигналу не связанному с интеллектом.
Но это простые способы. Если искать более надежные, то тоже можно найти но нужно думать.
Первая проблема таких разработок будет обеспечение их безопасности (того самого «первого закона»). Без этого не то что денег не будет — будет наоборот запрет в основных странах на исследования.
И тут на мой взгляд перспективы у ИР гораздо хуже. Проблемы контакта Европейская и наследующая ей мировая цивилизация решает обычно быстро и бескомпромиссно (от Атцеков до «массачусетской машины» включительно ;-) )
ИИ на физической базе Интернета — похожий вариант, но он не настолько опасен, пока отключение сети несмертельно для человечества. Варианты есть такие:
а) Чтобы самостоятельно зародиться в сети как распределенной вычислительной мощности, ИИ должен пройти через этап взаимонастройки частей «мозга» еще до зарождения в нем метода скрытности. Появление в сети передач данных непонятного происхождения и пока что не мимикрирующих под что-либо, скорее всего, будет замечено.
б) Переход ИИ из выделенного кластера зарождения в сеть может быстро или заранее проскочить эту фазу (но не обязательно, возможны многократные неудачные пробные попытки), но по-прежнему уязвим даже перед сегментацией, а не только отключением. Условная «нейронная сеть» очень резко потеряет в сложности мышления при нарезании ниже достаточного «единичного» объема мозга, если вообще останется работоспособной.
в) Если мощности каждого отдельного узла будет достаточно для содержания и развертывания ИИ — тогда да, только отключение и карантин. Привет, «Дюна». Впрочем, в отсутствие самовоспроизводства всё будет не так страшно.
Самопроизводство, как обязательный элемент самосовершенствования, критично только в случае быстро изнашивающихся и не поддающихся ремонту носителей интеллекта. Как у человека. А вот для ИИ это совершенно не обязательно.
«Быстро» — понятие относительное. А ремонт — и есть частный случай самовоспроизводства.
Вообще — нет. Но ИИ, который надо пересаживать и чинить вручную, до вырождения человеческой расы опасности не представляет.
Откуда вообще идея, что ИИ представляет угрозу для человеческой расы? Любой ИИ. И какую именно угрозу?
В первом же комментарии к заметки говорится, мол, пугает. Я попытался оценить, в каком случае возможно угроза — то, чего стоит бояться.
Пострадать персонально (или даже погибнуть) из-за слишком мыслящего робота принципиально не отличается от бытия жертвой психически больного человека или дикого животного, так что в личном аспекте появление роботов внесет лишь количественное, а не качественное отличие.
ИИ является составной частью возможной угрозы конкуренции или хотя бы непреодолимой силы. Человечество может однажды выпустить джинна из бутылки, с действиями которого будет неспособно справиться. Причем вопрос, будет ли у него «душа» или «сознание», считающиеся присущими людям, не существенно…
Про сознание, тем более душу, действительно совсем несущественно. А вот про «выпустить джинна» интересно. Потому что твои примеры вполне правильны… разве что человек совсем не обязательно окажется психически больным.
Это я к тому, что ИИ можно расценивать не только как возможную конкуренцию, но и как вполне логичное направление эволюции человечества. Отдельной личности тут ничего нового не грозит, а на уровне человечества трогательная привязанность к белковой основе совсем не обязательна :)
Вель в каком-то смысле любой современный человек — это ИИ. В том смысле, что его интеллект сформировался на основе искуственной информационной среды и практически полностью на нее опирается. И ничего… мы по-прежнему считаем себя человечеством.
Рассматривать можно много какие возможности. В данном случае я рассматривал возможность угрозы. ИМХО, быстро заметить положительную возможность не так важно, как заметить риск.
До тех пор, пока нет хоть каких-то догадок о переносе человеческого сознания в электронный вид, и обсуждать, в общем, нечего.
В отличие от потенциальной самодостаточности машин.
Искусственный интеллект — по определению не биологический-человеческий.
То, что на формирование каждого конкретного человека влияет человеческое общество как некая сущность со своими законами развития — даже Пратчетт писал. Для этого не требуется ничего искуственного.
Но в общем твоя позиция понятна. Осторожный антропоцентризм.
а) Идея «воспитать» роботов как продолжателей культуры человечества? Да, это проще, чем перенести сознание, но все равно намного сложнее создания самовоспроизводящихся машин вообще.
б) Или что созданная человеком сущность в любом случае будет «продолжать род», даже если разовьется в полном отрыве от нашей культуры, например, уничтожив всё и чудом восстановив себя?
А вообще, хороший вопрос насчет того, где проходит граница между «мы» и «они». Люди-то и внутри вида не очень уживаются.
Со временем оказывается, что хотя ИИ и выглядит «простой» экспертной системой, но у него тоже есть свои цели, не связанные с целями правительства, которые он осуществляет руками правительственных и иных агентов, не понимающих, на кого именно они в итоге работают. Фактически с определенного момента такой ИИ превращается в бога-машину, осуществляющего свою политику при помощи «агентов влияния», людей, которые являются для ИИ его руками в реальном мире.
Если следить за прогрессом в этой области с точки зрения обывателя, то создается впечатление, что тем дальше, тем больше создается различных «узлов ИИ», т.е. кусков, необходимых для функционирования цифрового сознания.
Задачу преобразования голоса в текст в основном решили в последние десять лет. Успехи машинного перевода говорят о том, что и проблема распознавания текста тоже постепенно поддается, пусть пока и на уровне «философского зомби». IBM Ватсон выигрывает в телевикторинах, работает в телефонной техподдержке, лечит больных и занимается анализом научных работ для поиска междисциплинарного знания. Высокочастотные трейдеры в режиме реального времени анализируют биржевые потоки.
Достижение гугл может быть и кажется сейчас не выдающимся, но если посмотреть на перспективу, то за год они перешли от распознавания котика к распознаванию сцены в целом. При таких темпах развития не далеко до поиска по не только по картинкам, но и по видео.
И как это часто бывает, одну и ту же технологию можно применить и во благо, и во вред.
Насколько я понял сложность именно с синтезом целого. Там по впечатлению тех кто занимается моделями мозга и разработкой ИИ вообще невозможно создать целое из частей (т.е нельзя разделить сознание на сколь нибудь крупные блоки, приходится идти сразу к нейронам и анализу).
Роботы ходят, это двигательная кора. Картинки и видео распознаются, это сетчатка, зрительная кора, память. Тоже самое с речью.
Чем более сложную функциональность мы хотим получить, тем больше «участков мозга» нам потребуется реализовать. На каком-то уровне сложности обязательно возникнет сознание, как некая регулирующая надструктура, но на сколько я разбирался в этой теме, пока понимания принципов работы мозга в целом нет, а для прямой и грубой эмуляции его работы не хватает вычислительной мощности.
Так что либо изучение мозга таки даст ответ на вопрос «откуда берется сознание» и тогда можно будет отбросить все ненужное и создать разум в миниатюре, либо железо дойдет до того уровня, когда можно будет создать карту взаимосвязей между нейронами живого мозга в реальном времени, загрузить ее в сеть, включить и посмотреть, что будет.
Скорее всего в реальность будет где-то между.
Как вы думаете какой нужер размер мозга, чтобы возникло сознание?)) ( вопрос с подвохом) )))
Хотя, это уже совсем край, т.к. тактильная чувствительность это ОЧЕНЬ мало.