LINUX.ORG.RU

Предпосылки к созданию ИИ или, что мы знаем о нейросетях?

 ,


1

3

Во второй половине 20 века начала стремительно развиваться вычислительная техника и как следствие, людей всё больше стали посещать идеи об автоматизации того, что было делать утомительно, либо тех областей, где не удовлетворяли собственные возможности.

В те времена считалось очень перспективным и любопытным автоматизировать и такую привилегированную способность человека, как мышление.

Спорный вопрос, только ли люди могут мыслить. И раньше и сейчас найдутся те, кто считает, что человек - это единственное существо (по крайней мере, на планете Земля), обладающее способностью мыслить.

Интерес к идее создать ИИ обычно обострялся с очередными достижениями в вычислительной технике, когда повышалась вычислительная мощность компьютеров. Спад же происходил по интересным и, если вдуматься, даже забавным причинам. Если посмотреть статьи о проблемах создания ИИ, то в подавляющем большинстве все видели причину в недостаточной вычислительной мощности компьютеров. Интересно, что с момента появления первого электронного компьютера до начала 21 века вычислительная мощность возросла в миллиарды раз.

Забавно то, что за этот промежуток времени общепринятое мнение о «причине» неудач создания ИИ не изменилось. Принято приводить в доказательство состоятельности «причин» вычисления, производимые на основании данных исследований физиологии мозга. Эти данные говорят о большом количестве элементарных составляющих мозга – нейронах. Принято считать, что их приблизительно 12 миллиардов. В эквивалент этому числу ставилось количество триггеров в компьютере – элементарных вычислительных единиц логических схем. Через некоторое время суперкомпьютеры далеко перепрыгнули этот предел. Тогда нашли новый вариант обоснования «причины». Количество связей между нейронами на несколько порядков больше количества нейронов. И к тому же нейроны - это сами по себе процессоры, которые сложнее или сравнимы по сложности с существовавшими в конце 20 века.

Конечно, какая-то доля истины в таких рассуждениях есть, но существует также другой взгляд на причины неудач. Если посмотреть на подход, который использовался при попытках создать ИИ, то можно увидеть некоторое сходство с первыми попытками создать летательные аппараты тяжелее воздуха. Первые попытки создать аппараты тяжелее воздуха были весьма наивны и заключались в простом копировании внешности птиц, единственных, известных людям крупных существ, которые имели способность летать. Реальные искусственные аппараты тяжелее воздуха, которые смогли летать, появились только после того, как были изучены сами принципы полёта и разработана теория аэродинамики. После этого появилось много разнотипных летательных аппаратов, и только некоторые из них отдалённо напоминают по форме птиц. В попытках создания ИИ прослеживается похожая тенденция. Большинство разработчиков пытается «копировать» строение мозга, не разобравшись в самих принципах обработки информации, реализованные на биологических нейронных системах.

Прощу прощения за много букоф и стилистику.

У обитающего здесь народа есть мысли по поводу темы?

ptarh, Axon



Последнее исправление: Serg_HIS (всего исправлений: 1)
Ответ на: комментарий от seiken

Это чисто математическая задача, без каких-либо намёков на биологию, т.е., как раз попытка воспроизвести функциональность без воспроизведения организации.

Не согласен, что стоит игнорировать организацию. Думаю что геометрия строения играет не последнюю роль.

Serg_HIS
() автор топика
Ответ на: комментарий от seiken

Вездесущий аргумент с птицей и самолётом корректен только частично. Парящая птица принципиально не отличается от самолёта

Это правда. А вот люди с веником в заднице и приклеенными смолой перьями к рукам, которые убивались со скал - ни капли не самолеты и не птицы.

Serg_HIS
() автор топика
Ответ на: комментарий от Serg_HIS

Это ты про конечный автомат. который физически может делать только что что может.

Нет. То, что человеческий мозг не изобретает себе новые эмоции, не мешает человеку учиться.

Если касательно обучающихся систем, то основной инстинкт например у человека пожрать и потра(завести потомство).
И это не значит, что он для этого не отберёт еду у другого и/или не убъёт того, кто претендовал на его потра(предмет любви) или туже жратву.

И кто сказал, что ИИ должен быть мотивирован аналогично? Таких и так много землю топчет, незачем изобретать еще одного.

feofan ★★★★★
()
Ответ на: комментарий от Serg_HIS

Не согласен, что стоит игнорировать организацию. Думаю что геометрия строения играет не последнюю роль.

Человеческий мозг оптимизировался эволюцией в соответствии с естественным отбором. Если мы видим нечто, напоминающее хищника в опасной близости, мы сначала получаем дозу адреналина для немедленной реакции, и только потом можем увидеть, что это лишь имитация. Это было необходимо для выживания. ИИ не обязан быть ограниченным в те же рамки.

feofan ★★★★★
()
Ответ на: комментарий от Serg_HIS

Не согласен, что стоит игнорировать организацию. Думаю что геометрия строения играет не последнюю роль.

Я лишь привёл пример модели, имеющей практическое применение (по крайней мере, в тогдашних условиях, пока одна известная контора не разразилась ещё своими GPGPU, и не началась массовая истерия на тему массового параллелизма на видеокартах) не основанной на повторе биологичекой структуры (хотя и MLP, и свёрточные сети, и машины Больцмана далеки от БНС), но не давал никаких субъективных оценок сверх того.

seiken ★★★★★
()
Ответ на: комментарий от seiken

Кстати, организация в МОВ не игнорируется, т.к. ядро можно выбирать. Например, областью определения ядра может быть мн-во графов, представляющих, например, химические структуры.

seiken ★★★★★
()
Ответ на: комментарий от feofan

Я здесь привожу свои мысли, дружок, развернутые на 5 абзацев, с которыми можно спорить и как-то их опровергать. С твоей же стороны нет ничего, кроме жесткого батхерта и отсылок к мнимым авторитетам.

Я заглянул на твой MIRI и почему-то не удивлен. Там футуролог Курцвайль (футуролог, Карл!) и какой-то автор научно-фантастических рассказов Юдковский, который также «известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей», т. е. пи$дабол.

Тут следует понимать, что клиента нужно сначала основательно запугать (ну, например, сингулярностью), а уже потом (если конечно ты «известен своими объяснениями сложных моделей на неакадемическом языке») и фонды под дружбу с ИИ можно требовать))

Между тем, естественный интеллект - это поиск и эксплуатация закономерностей окружающего мира ради выживания вида. Убери хоть одно слово из этого определения и ты снова окажешься у разбитого ящичка, из которого должен был вот-вот появиться ИИ и всех засингулярить))

rubic
()
Ответ на: комментарий от slackwarrior

Оптимизация...

Чего оптимизация-то, любезный? Вы уж разверните свою реплику, зачем системному блоку человечков-то выкашивать?

rubic
()
Ответ на: комментарий от rubic

Я здесь привожу свои мысли, дружок, развернутые на 5 абзацев, с которыми можно спорить и как-то их опровергать.

Точнее ты бездоказательно объявляешь их истиной. Ты тупо проецируешь биопроблемы на железяку. Даже спорить было лень. Почему я должен опровергать то, что ты даже не попробовал доказать?

Я заглянул на твой MIRI и почему-то не удивлен. Там футуролог Курцвайль (футуролог, Карл!) и какой-то автор научно-фантастических рассказов Юдковский, который также «известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей», т. е. пи$дабол.

Ну аноним с ЛОРа то явно более компетентен в создании ИИ. Кроме того, ты как-то опустил тот факт, что они пишут OpenCOG.

естественный интеллект - это поиск и эксплуатация закономерностей окружающего мира ради выживания вида

Согласен. А почему это именно так скажешь?

feofan ★★★★★
()
Последнее исправление: feofan (всего исправлений: 1)
Ответ на: комментарий от feofan

Точнее ты бездоказательно объявляешь их истиной.

Я же как бы пишу, что можно спорить, взываю тык-скыть к диалогу, но тебе ведь просто лень. Переводя на русский, ты просто пукнул в несознанке и теперь делаешь вид, что это норма жизни. Аргументация - зиро.

Мой аргумент (не мой конечно, я ведь всего лишь аноним с ЛОРа) - это очень-очень ученая и чрезвычайно авторитетная «Китайская комната» и все бурление вызванное желанием данный парадокс преодолеть, которое, кстати, в свое время просто-таки изменило течение мысли на фронтире ИИ. «Дружественный ИИ» - это целиком и полностью фантазии фонтастов, мыслящих в категориях слабого ИИ. Сильный ИИ будет жить и, и что самое главное уживаться с нами в реальном мире, а не в фонтазмах о HAL9000. Он будет дружественным по определению, это ноль-проблема, типа кто кого заборет, кит или слон.

rubic
()
Ответ на: комментарий от rubic

Есть серьезные основания считать, что настоящий (сильный) ИИ будет мало отличаться от человека свойствами мозга (собственно это и есть определение сильного ИИ).

Начнём отсюда. Что за «серьёзные основания»? Только тот факт, что никакого интеллекта, кроме человеческого человечеству неизвестно? Нет другого шаблона?

Отсюда и все неудачи google translate, кстати.

google translate - статистическая система, ни о каких значениях там речи нет.

Есть такая родственница Китайской комнаты, как symbol grounding problem, которая запрещает мыслящие ящики. Можно сколько угодно манипулировать китайскими символами по правилам языка, но если у тебя нет ручек, то нет и конфетки. Понимание - это не манипуляция символами, обозначающими реальные предметы, события, явления. Понимание - это манипуляция реальными предметами, событиями, явлениями. Отсюда следует т. н. embodied intelligence, который должен существовать и непосредственно взаимодействовать с миром как реальное тело.

Лично для меня - неубедительно. Мозг не воспринимает внешний мир напрямую, он манипулирует моделями. Отсюда, например, оптические иллюзии.

feofan ★★★★★
()
Ответ на: комментарий от Serg_HIS

Ну уж нет, я еще про аэроплан не сказал! Это ведь любимейший пресловутый аргумент сторонников слабого ИИ. Хочу заметить, что тут хотя бы нет подмены цели - птица имеет цель летать (пусть и производную, цель - средство, как часто бывает) и с аэропланом точь в точь то же самое. Именно поэтому в смысле аэродинамики там разницы - ноль. С другой стороны, в случае с ИИ, нам говорят, что ИИ может иметь цель отличную от ЕИ и все-равно быть И. Это не вмещается в мой ЕИ.

rubic
()
Ответ на: комментарий от Serg_HIS

Аргумент, что апелляция к авторитетам неубедительна вполне корректен. Приятно пообщаться с человеком, который это понимает.

feofan ★★★★★
()
Ответ на: комментарий от rubic

Это не вмещается в мой ЕИ.

Я так понимаю, это и есть основной аргумент? =)

feofan ★★★★★
()
Ответ на: комментарий от feofan

Начнём отсюда. Что за «серьёзные основания»?

Общность цели, определяет общность формы, а в случае с мозгом, где о форме речи нет - содержания. Если вы посмотрели ролик, который я выкладывал, то должны быть согласны с тем, что все улучшения, произведенные эволюцией, поразительно логичны. И здесь нет никакой разницы будут ли элементы мозга нейронами или транзисторами. Все-равно, глупо тратить вычислительные ресурсы на ответы, которые можно запомнить. Полезно сделать внутренний виртуальный мир и эксперементировать в нем, а не в среде, и т. д.

Это все справедливо, если мы принимаем парадигму ИИ, как автономного агента, действующего в реальном мире.

Мозг безусловно манипулирует моделями. Порой модели даже оттеняют объективную реальность. Но я не принимаю мысль об ИИ, у которого какой-то односторонний процесс с моделями. Модель-Мир - это всегда двустроннее движение. Ощущения вызываемые Миром меняют наши модели, наши модели меняют наше ощущение мира. И все это невозможно без реального взаимодействия агент-мир. OpenGOG, CYC, Watson - это все совсем-совсем не о том.

rubic
()
Ответ на: комментарий от rubic

глупо тратить вычислительные ресурсы на ответы, которые можно запомнить. Полезно сделать внутренний виртуальный мир и эксперементировать в нем, а не в среде, и т. д.

Верно только отчасти. При таком подходе наука бы не развивалась, так как примитивные модели уже существуют. Модели могут отличаться от реальности, в таком случае модель нужно уточнять. Так бы действовал идеальный байесовский агент.

Мозг безусловно манипулирует моделями. Порой модели даже оттеняют объективную реальность. Но я не принимаю мысль об ИИ, у которого какой-то односторонний процесс с моделями. Модель-Мир - это всегда двустроннее движение. Ощущения вызываемые Миром меняют наши модели, наши модели меняют наше ощущение мира. И все это невозможно без реального взаимодействия агент-мир.

Рад, что ты это признаешь.

OpenGOG, CYC, Watson - это все совсем-совсем не о том.

А вот это уже голословное утверждение.

feofan ★★★★★
()
Ответ на: комментарий от rubic

Это все справедливо, если мы принимаем парадигму ИИ, как автономного агента, действующего в реальном мире.

«Растущий» ИИ это еще не автономный агент. Существует ограничение на запрос полномочий от человека при возрастании скорости самомодификации. Упоминается теми же людьми как один из способов повысить собственную безопасность.

feofan ★★★★★
()
Ответ на: комментарий от rubic

Ну уж нет, я еще про аэроплан не сказал! Это ведь любимейший пресловутый аргумент сторонников слабого ИИ

Что у тебя там опять с эти аэропланом? И какое отношение он имеет к ИИ?

Про аэроплан - это я привёл много лет газад аллегорию на то, как люди не понимая, что такое центр давления и турбулентность пытались сигать со скал с веником в заднице. Что ты к птицам привязался? Ну летают они... Завидно? :)

Я в более давние времена приводил (для сравнения нелепых подражаний) вариант динамиков, если бы их делали в виде гортани, рта и лёгких человека (а скорее всего человека целиком) для воспроизведения звуков.

Интересно, что такое даже сейчас разрабатывается (наверное для создания не отличимых от людей гуманоидов)...

Если более полно, то у ворон (птицы такие) есть приколы в стиле воровать у людей ценные вещи и срать (в прямо смысле) им на голову. Делают просто из развлечение (не верите, что вороны любят развлекаться?).

Не трогай их... Может простят :)

Serg_HIS
() автор топика
Ответ на: комментарий от feofan

Существует ограничение на запрос полномочий от человека при возрастании скорости самомодификации

Я вот постоянно привожу примеры.

Что с птицами например...

И с основными инстинктами...

У тебя никаких примеров.

Как сделать ограничения? О чём ты?

Serg_HIS
() автор топика
Ответ на: комментарий от rubic

И да! Может ли махолёт летать быстрее звука?

Serg_HIS
() автор топика
Ответ на: комментарий от Serg_HIS

Твои примеры нерелевантны. Но если тебе непонятно без объяснения на пальцах, то данное конкретное ограничение - это просто счетчик и таймер. Если за период таймера произошло больше n изменений, блокировать дальнейшую работу и подавать какой-либо сигнал человеку.

feofan ★★★★★
()
Ответ на: комментарий от feofan

это просто счетчик и таймер

Понятно, это называется ен объяснение, а - сферический конь в вакууме.

Если не мжешь объяснить на пальцах блондинкемне - то значит ты сам совершенно не понимаешь о чём говоришь.

Serg_HIS
() автор топика
Ответ на: комментарий от feofan

Об ограничениях вообще не имеет смысла говорить. Ты ещё не начал двигаться, но уже думаешь как и где себя ограничивать. Беспредметно.

Нужно сначала понять что ты вообще движешься. Куда, зачем, на какой основе. И тогда _может быть_ может возникнуть вопрос об ограничениях. Нет, он конечно возникнет, но на прикладных уровнях и будет решаться автоматически.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

А пока эти рассуждения выглядят как способ уйти от вопроса.

sin_a ★★★★★
()
Ответ на: комментарий от seiken

параллелизма на видеокартах) не основанной на повторе биологичекой структуры

Повторюсь.

Никогда не поддерживал идею копирования структуры и принципа функционирования элементраных составляющих единиц (например ячеек памяти состоящих из треггеров которые суть кубики кремния и вкраплений пары ещё вещест и соединенных алюминиевыми/медными (золотыми?) проводниками тока, которые ни капли не похожи на волноводы нейронов, которые передают импульсы сменой концентрации ионов кальця внутри и снаружи).

Суть в математическом моделировании организации обработки сигналов с сенсоров и логики, почему эффекторы должны работать именно так в ответ на раздражения сенсоров (пусть сенсором будет хоть буфер клавиатуры, а эффектор - буфер видеокарты отображаемый на монитор).

И описание геометрии, тоже конечно же - это математическое.

Serg_HIS
() автор топика
Ответ на: комментарий от Serg_HIS

Я понимаю о чём говорю. Но предполагалось, что ты имеешь хотя-бы поверхностное представление о программировании.

feofan ★★★★★
()
Ответ на: комментарий от Serg_HIS

Они [MIRI] считают появление ИИ неизбежным и работают над методикой уменьшения рисков, с этим связанных. В частности, разрабатывают концепцию «дружественного ИИ» и настоятельно рекомендуют использовать её всем, кто ведет разработки в этом направлении, в том числе готовы предоставлять собственных специалистов для этого.

feofan ★★★★★
()
Ответ на: комментарий от feofan

Не ходи кругами. Просто объясни механизм как это реализовать. Только не нужно рассказывать про то как измерять скорость цикла из n итераций.

Serg_HIS
() автор топика
Ответ на: комментарий от Serg_HIS

Просто объясни механизм как это реализовать.

Что у тебя скрывается под таинственным словом «это»?

feofan ★★★★★
()
Ответ на: комментарий от rubic

чтоб не спамили :) Ты еще спроси зачем охранка РИ, большевики или хранцузские ливарюцианеры... или инквизиторы выкашивали идеологических противников :) Спамфильтор был буквальный: мясной и кровавый.

slackwarrior ★★★★★
()
Ответ на: комментарий от Serg_HIS

ИИ-то они-то как-то... бесполезно. А плоцкая красота с т.з. тех церковных старцев тоже спам — отвлекает от помыслов от «жызни вечной».

slackwarrior ★★★★★
()
Ответ на: комментарий от slackwarrior

А плоцкая красота с т.з. тех церковных старцев тоже спам

Тут я соглашусь.

Serg_HIS
() автор топика

Интерес к идее создать ИИ

Опять путаница ИИ и ИР. Это в английском языке эти два принципиально разных понятия скрываются под одной аббревиатурой AI. Обратный перевод AI -> ИИ приводит к путанице. Потому что ИИ давно созданы и прекрасно работают. А то, о чём идёт речь — это ИР.

Интересно, что с момента появления первого электронного компьютера до начала 21 века вычислительная мощность возросла в миллиарды раз.

И сегодняшние нейрочипы вполне имеют когнитивные способности насекомых. У TrueNorth — 1 млн. нейронов. Осталось поднять вычислительную мощность ещё в 100 тысяч раз и будет эквивалент мозга человека :)

Принято считать, что их приблизительно 12 миллиардов.

Как оказалось, в среднем наш мозг насчитывает около 86 млрд нейронов



// http://compulenta.computerra.ru/archive/neuroscience/664455/

Если посмотреть на подход, который использовался при попытках создать ИИ, то можно увидеть некоторое сходство с первыми попытками создать летательные аппараты тяжелее воздуха.

Современные ИИ давно не имеют практически ничего общего с биологическими прототипами :)

KRoN73 ★★★★★
()
Ответ на: комментарий от KRoN73

Ветку хоть читал?

Но ничего. Я чуть позже прокомментирую попунктно.

Serg_HIS
() автор топика
Ответ на: комментарий от KRoN73

Давайте уже придерживаться сложившейся терминологии: слабый ИИ/сильный ИИ. Судя по всему нет, но вам ник Daner ничего не говорит?

rubic
()
Ответ на: комментарий от feofan

Верно только отчасти. При таком подходе наука бы не развивалась, так как примитивные модели уже существуют. Модели могут отличаться от реальности, в таком случае модель нужно уточнять. Так бы действовал идеальный байесовский агент.

На уровне, который я имел ввиду, о моделях говорить не приходится, но возражение справедливо, т. к. принцип распространяется на все: и на элементарные рефлексы, и на ментальные стереотипы. Но, вот чего я не говорил, так это то, что модели навсегда оседают в памяти и не подлежат корректировке. Мне, например, приходилось работать и на конвейере в юности. Там придуманный умом самому себе алгоритм, в принципе легко заучивается подсознанием, но оно постоянно выкидывает фортеля. Иногда это приводит к досадным ошибкам, иногда прямо видишь умом, что так оно и лучше (это - подкрепление). Хаос никогда не оставляет нас в покое. Все всегда плывет, если делать, а не просто декларативно запоминать.

Что касается всяческих проектов, в которые пытаются вгрузить извне некую онтологию и наполнить ее знаниями, я категорически не верю в это. Мое имхо в том, что онтологии, знания - это все высший уровень (типичный, кстати, нисходящий ИИ), который у человека лежит на фундаменте элементарных рефлекторных и перцептивных уровней. Нельзя построить badroom в воздухе, должен быть basement. Это проблема понимания. Ну вот у кого из вышеперечисленных проектов есть внутренний театр, в котором они натурно могли бы отличить право от лево, красное от зеленого? Они видят лишь различия в символах и их описаниях, которые, опять же символы. Это Китайская комната, нет выхода из нее. Чтобы мои слова не казались вам легковесными, я с удовольствием возьму их обратно, ровно в тот момент, когда на основе этого подхода будет построен адекватный переводчик с английского на русский. Вы просто не представляете насколько наш ум завязан на тело, насколько мысль, слово (даже произнесенное про себя) - это телесное действие. Нет мысли, кроме как в теле, и я пророк ее))

rubic
()
Ответ на: комментарий от rubic

Давайте уже придерживаться сложившейся терминологии: слабый ИИ/сильный ИИ

Это, видимо, какой-то новодел. Не слышал такого. Новая калька с английского? А чем классическое ИИ/ИР не нравится? И в русском семантика куда более понятная.

KRoN73 ★★★★★
()
Ответ на: комментарий от Serg_HIS

Врановые - вообще чемпионы по уму среди птиц. Описан случай, когда одна ворона воровала у тетки вырежку, а другая, пока тетка гналась за первой, потрошила сумки. Мы существенно недооцениваем уровень сознания братьев наших меньших)

rubic
()
Ответ на: комментарий от rubic

Что касается всяческих проектов, в которые пытаются вгрузить извне некую онтологию и наполнить ее знаниями, я категорически не верю в это. Мое имхо в том, что онтологии, знания - это все высший уровень (типичный, кстати, нисходящий ИИ), который у человека лежит на фундаменте элементарных рефлекторных и перцептивных уровней.

Ты думаешь что машина должна сама построить онтологию на базе подаваемого фактического материала?

А почему ты не думаешь что элементарные уровни человека уже отражают некую онтологию? Нет, я не имею в виду «создание».

Вы просто не представляете насколько наш ум завязан на тело, насколько мысль, слово (даже произнесенное про себя) - это телесное действие. Нет мысли, кроме как в теле, и я пророк ее))

Ты хочешь дать машине тело, для того чтобы она могла думать и извлекать онтологию?

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

Ты хочешь дать машине тело, для того чтобы она могла думать и извлекать онтологию?

Рубик в некотором смысле прав.

Я давно во многих форумах (и здесь), вводил понятие ИС (интеллектуальная система). Это обозначает что И не может существовать абстрактно (сферический конь в вакууме).

Должны быть обязательно рецепторы и эффекторы, а это уже подразумевает тело, даже пусть математическую его модель, даже в виртуальном мире.

Serg_HIS
() автор топика
Ответ на: комментарий от Serg_HIS

Нет, про отношение нашего мышления и нашего тела у меня возражений нет. Но насчёт машины, если я правильно понял его терминологию, нужно строить именно «нисходящий ИИ».

А вообще мне слово «интеллект» очень не нравится. Растасканное и неопределённое, с богатым эмоциональным шлейфом. Предпочитаю просто говорить «обработка информации».

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

А вообще мне слово «интеллект» очень не нравится

Интеллект... ну слово как слово (набор букв).

А то, что какую энциклопедию ни возьми, каждый городит что хочет...

В моей модели я это определил как свойство (способность). Есть пару людей в мире, которым я дал его определение голосом лично. Здесь пока не хочу светить. Оно состоит из 2х слов. Честно.

Serg_HIS
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.