LINUX.ORG.RU
ФорумTalks

Помогите мыслить


0

3

Когда говорят, «искусственный интеллект в сильном смысле» - имеют в виду способность мыслить самостоятельно (и, возможно, осознать себя)
В википедии написано:
http://ru.wikipedia.org/wiki/Сильный_и_слабый_искусственный_интеллект
(сильный - компьютеры могут приобрести способность мыслить, слабый - то что есть сейчас)

Вот способность мыслить - это что именно имеется в виду?

Я довольно долго думал, что это способности обобщать, абстрагировать, планировать и проверять гипотезы, но потом выяснил, что животные умеют обобщать и абстрагировать (а дельфины и шимпанзе - с первого раза).

Сейчас прийдет Kron и скажет, что не хватает аппаратной части. Но я тут почитал про строение третичных полей мозга - аппаратная часть практически фиксированная, как и в компьютере.

Мощности? Так у дельфинов веc мозга больше, площадь больше, строение аналогичное (шесть слоев как у всех млекопитающих), а чего-то все-таки не хватает...

Так что надо создать, чтобы получилась «мыслящая» система ?

http://huminf.tsu.ru/e-jurnal/magazine/3/lad_tar.htm

Прежде всего, Серл полагает, что необходимо отличать «сильный» ИИ от «слабого» ИИ. Предметом критики у Серла выступает «сильный» ИИ, согласно которому «компьютер - это не просто инструмент в исследовании сознания; компьютер, запрограммированный подходящим образом, на самом деле и есть некое сознание в том смысле, что можно буквально сказать, что при наличии подходящих программ компьютеры понимают, а также обладают другими когнитивными состояниями» [4. 377].


Давайте попробуем разобраться, что означает слово «понимают»?

Способны выделять фразу и соотносить её с понятием?

Обладают базой знаний == понятие + его употребление в разных контекстах?

Могут строить семантические сети и свободно оперировать ими в разных контекстах (с различной смысловой нагрузкой)?

Способны распознавать и отслеживать текущий контекст?

В состоянии отслеживать динамику смены контекстов?

(Например, соль анекдота — как правило, заключается в неожиданной/неспрогнозированной смене контекста — основное правило эмоции смеха. Научи компьютер отслеживать и прогнозировать динамику смены контекста — и компьютер начнет понимать анекдоты, когда заметит неожиданную смену контекста для основного набора ключевых понятий :-).

Т.н. «когнитивные состояния» — всего лишь реакция «исполнительной системы» на незавершенные выводы в разных контекстах.

Согласно же «слабому» ИИ, компьютеры лишь имитируют мысль, их мнимое понимание не является действительным пониманием, мнимое вычисление - как будто вычисление, и т. д.; тем не менее, компьютерная имитация полезна для изучения сознания (как, например, для изучения погоды и др.).


Что значит «имитируют»? Что заложили — то и получили. Некоторые виды работ человека настолько формализованы, что и не предполагают осознания конечной цели и понимания всего процесса в целом. А алгоритмы уже давно оперируют объектами и типами.

...

Таким образом, Серл приходит к формулировке «вывода из аксиом», которая резюмирует главные результаты его мысленного эксперимента. Этот вывод исходит из следующих трех аксиом:


Аксиома 1. Компьютерные программы - это формальные (синтаксические) объекты.


Научные исследования или рабочий процесс — не менее формальные объекты/понятия.

Аксиома 2. Человеческое сознание оперирует смысловым содержанием (семантикой).


Содержание — семантика — контекст? Можно подумать компьютеры этого не умеют...

Аксиома 3. Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики.


К.О. Формат XML или запись поваренной книги тоже кто-то должен валидировать и интерпретировать. Чтоб читать книги, нужно выучить буквы. Чтоб понимать книги, нужно выучить язык.

Отсюда делается следующий очевидный вывод: Заключение 1. Программы не являются сущностью сознания, и они недостаточны для его наличия.


Являются. Опыт, например, — человеческая библиотека программ и алгоритмов. А что, не так?

Если человек не знает программу поведения за столом — вы будете считать его интеллигентным? (предполагается игра слов)

Если человек не знает программу поведения в общественном месте, на улице, в транспорте, в магазине и не понимает ни одного жаргонного словечка из принятых в вашей банде — вы будете считать его умным? А если, к тому же, он не будет, вообще, считать нужным пытаться понять эти ваши условности/программы/обычаи?

Аксиома 4. Мозг порождает сознание.


Очень смешно. Пусть для начала попробует отделить память от мозга и отделить абстрактный вычислитель сознания или подсознания от памяти.

Neksys ★★★
()

> Так что надо создать, чтобы получилась «мыслящая» система?

Оно уже создано, загляни в зеркало =)

qsloqs ★★
()

>Так что надо создать, чтобы получилась «мыслящая» система ?

[пгм]Без созданной Господом Богом бессмертной души разум существовать не может, ибо душа является носителем разума. Но запихнуть душу в бесновый компьютер вестимо не получится, так как от дьявола он, но нет от Бога![/пгм]

AntonK
()
Ответ на: комментарий от AntonK

Прям, даже, не знаю, напоминать про существование backup`ов или не нужно этого делать...

Короче, вообще-то, у отдельного искусственного интеллекта обрести бессмертную душу шансов больше, чем у отдельного человека... by design. :)

Neksys ★★★
()
Ответ на: комментарий от Mobyshvein

> Шо ви таки имеете против дельфинов?

Я - ничего. Просто их любят привести как пример чего-то а) непохожего на человека. Но при этом б) сложного. (в смысле поведение, мыслительные способности и т.п.)

Интеллект естественный - продукт естественной же эволюции, очень долгой. В этой ветке пытаются создать «бога из машины» - разум сразу из ничего. И ещё забавный момент - до сих пор тут как-то опускают роль не просто окружающей среды - а роль какого-то общения, социума. Хотя это именно то, что делает людей - людьми (без социальной «прошивки» они получаются похожими на тех, кто их воспитывал - будь то зверь или наверное даже компьютер/робот).

Разум не появляется из ничего, и не существует в вакууме.

Andrew-R ★★★★★
()
Ответ на: комментарий от Andrew-R

Ну, это будут машины, которые тоже будут вынуждены по-началу учиться, какое-то время, общаться с человеком или так или иначе с его знаниями и окружающей средой, потом они смогут общаться между собой в своей сети. Это будут не привычные нам компьютеры и не эмуляции. Но они, конечно, будут намного мощнее по возможностям, чем человек, хотя так же далеко не безошибочны. Ну и плюс мы не хотим создавать именно новых людей, мы хотим именно ИИ/ИР, ему совсем не обязательно быть похожему на человека внешне или эмоционально. Он должен будет иметь способность обучаться и проявлять, назовём это так, интуицию, и помочь нам справляться с лавиной информации.

Droid790
()
Ответ на: комментарий от Droid790

> Он должен будет иметь способность обучаться и проявлять, назовём это так, интуицию, и помочь нам справляться с лавиной информации.

Ха, ключевой момент: он нам _должен_. А самостоятельный, развитый интеллект может решить, что есть вещи поважнее (поинтереснее) чем помощь именно там, куда ему указали.

Люди хотят потешного щенка, собаку-тапочки-приносилку, но настоящий, независимый интеллект проявляется как раз тогда, когда сверху не сидит этакий всезнающий целеуказатель.

Кстати, про собак: http://lib.ru/PSIHO/LORENC/drug.txt

глава «животные, которые лгут». Суть впрочем не в том, что какое-то поведение _похоже_ на сознательное, а в том что из всех объяснений поведения наличие реального разума - остается самым вероятным из простых. Особенно это хорошо проявляется в новых ситуациях, или в сложных ситуациях, когда предыдущий опыт не работает.

Т.е. если кто-то ведёт себя так, будто в своих действиях он/она считают своего партнера по взаимодействию одушевленным объектом - это значит, скорее всего, что этот кто-то действительно обладает как минимум способностью различать тонкую грань между силами неодушевленной природы и силами, подвластными контролю мозга. Т.е., убийственно-упрощенно, собака будет рычать на другую собаку чуть по-другому, чем на пень - хотя вначале запущенное внешним импульсом рычание может быть одинаковым (по крайней мере для человеческого уха). Но далее как раз и начинается отличие живого существа от, к примеру , магнитофона. Живое существо реагирует на рычание, иногда вызывая целые цепи ответных реакций, или даже ставя в тупик одного из рычащих. Если исходить из позиции «животные не мыслят и не имеют целей» - приходится городить чудовищно-сложную конструкцию из ниточек к каждому отдельному событию, элементу. Наличие разума снимает эту сложность. На самом деле это все лучше расписано вот тут (на примере дельфинов):

http://www.indefenseofdolphins.com/ (книга)

Ну и естественно, научные публикации за последние полвека по человеческой и зоопсихологии не помешают. Иногда они наивные, иногда - неверные в своих предпосылках - но на то читателю и (предполагаемый) разум - чтобы сравнить, проверить, выбрать.

Andrew-R ★★★★★
()

> Сейчас прийдет Kron и скажет, что не хватает аппаратной части. Но я тут почитал про строение третичных полей мозга - аппаратная часть практически фиксированная, как и в компьютере.

Мощности? Так у дельфинов веc мозга больше, площадь больше, строение аналогичное (шесть слоев как у всех млекопитающих), а чего-то все-таки не хватает...


Во-первых, не фиксированная. Постоянно происходит ре-маппинг (http://en.wikipedia.org/wiki/Neuroplasticity). И благодаря каким механизмам он происходит (какие нейромедиаторы задействованы, какая химия выделяется в межсинаптическом пространстве, какая - в гипотоламусе итд как потом это прокручивается через всю лимбическую систему в виде обратных связей) - может и быть критическим. От мелочи может зависеть как обучение «сходится».
Внешне же мозг может быть и не отличим от дельфиньего.
(Количество строк кода в ядре - не является показателем его качества).
Там может быть малюсенькая область типа http://en.wikipedia.org/wiki/RTPJ, где «включается» критический процесс «самосознания», распознавания себя, и всё будет уже по-другому у человека.

siberean
()
Ответ на: комментарий от siberean

Кстати, область, которую я привёл в пример (RTPJ), ответственна и за мораль:
http://news.bbc.co.uk/2/hi/health/8593748.stm

Я слышал лекцию тётки кажется из МИТа (на теде), которая рассказывала и о других экспериментах, модифицирующих мораль воздействием магнитного поля на надвисочные доли.

siberean
()
Ответ на: комментарий от Andrew-R

>> Шо ви таки имеете против дельфинов?

Просто их любят привести как пример чего-то а) непохожего на человека. Но при этом б) сложного. (в смысле поведение, мыслительные способности и т.п.)

Сложность это пустое.

Недавно я встречал где то точку зрения, что у homo sapiens был конкурент, с башкой покрупнее и поумнее. Такой умный, что задачи решал сам и не надо было ни с кем советоваться. А homo глуповат был, ему понадобилось советоваться с окружающими, пришлось речь вырабатывать, и именно речь послужила катализатором возникновения разума.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

> Недавно я встречал где то точку зрения, что у homo sapiens был конкурент

И как же он назывался, по мнению автора ... точки зрения?

Andrew-R ★★★★★
()
Ответ на: комментарий от sin_a

Слово-то интересное, но без прочтения статьи/гипотезы не поймешь толком о чем речь, а Гугль он не телепат, предпочитает ключевые слова. Хотя если _уже_ есть ссылка - я по ней с удовольствием пройдусь.

Andrew-R ★★★★★
()
Ответ на: комментарий от Andrew-R

Нет, увы, ни ссылки, ни подробностей. Видимо я счёл что получил достаточно и всё остальное благополучно отфильтровалось.

Да, впрочем, мысль и так видна. При необходимости обмена информацией возникает необходимость в транспорте, роль которого выполняет язык, и большей точности модели, представлении информации. То есть, вынужденно, что-бы нас понял собеседник, мы описываем более точно и формально, начиная с гу-гу и гы-гы, где еда а где хищник. Формируется язык - формирует мысль, оттачивается и растёт модель. Нет необходимости обмена - начинается застой, как в информационном процессе, так и в любом другом.

Возможно по этому поводу будет интересно почитать почитать по ссылке выше: http://refal.net/turchin/phenomenon/ . Честно говоря, я это начал читать довольно давно, зашёл за половину да и за недосугом отложил, да и так с тех пор и не удосужился. Пора пожалуй и самому до конца дочитать.

Мне кажется что ключевым моментом во всех вопросах обработки информации будет именно представление информации, которое определяется описываемой моделью и которое в свою очередь определяет собственно обработку.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

Грубо говоря, нужно найти ключевые, узловые точки, через которые описывается всё остальное. Своего рода набор аксиом, с учётом того что это не совсем формальная система.

sin_a ★★★★★
()
Ответ на: комментарий от alexru

> А вот какие знания и как повлияли в процессе обучения на конкретное значение весовго коэффициента - уже практически не вычислимо для большой сети. Таким образом и получается, что есть довольно простой механизм, но принимает решения он каждый раз на базе уже накопленного опыта

Это и внес в свою анимантронную модель Жданов А.А. ссылко выше.

xintrea
()
Ответ на: >Жданов от Mobyshvein

> А он разве не из федералов?

Кто такие федералы в вашем понимании?

xintrea
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.