LINUX.ORG.RU

Открыта закрытая бета OpenAI Codex

 ,


0

0

Коммерческая компания OpenAI, управляемая советом директоров некоммерческой организации OpenAI Nonprofit, приглашает к закрытому тестированию искусственного интеллекта OpenAI Codex, создающего программный код на основе инструкций в формате естественного (и в настоящий момент — английского) языка. При обработке учитывается контекст предыдущих инструкций.

На опубликованных видео модель продемонстрировала способность сделать почтовую рассылку с текущим курсом Bitcoin'а на Python и создать простенькую игру с человечком, убегающим от падающего камня на HTML и JavaScript.

>>> Live Demo

>>> Подробности

★★★★★

Проверено: Shaman007 ()
Последнее исправление: xaizek (всего исправлений: 1)
Ответ на: комментарий от anonymous

Заливная

Проливная, можно океаническую

anonymous
()
Ответ на: комментарий от aist1

Результаты, которые показывает это Codex сами по себе очень хороши, потому что до сих пор такого добиться в автоматическом программировании не получалось: с описания на естественном языке — сразу в работающий код.

почему – вполне себе получалось.

если считать не совсем полноценный естественный – а какой-то ограниченный controlled simple english, Gellish например.

вот, к примеру код на Inform 7 rosettacode::Category:Inform_7

это язык программирования для описания интерактивной фикции литературы, текстовых квестов в духе Zork (подробности на офф. сайте, там где-то был в handbooks pdf с моделью событий движка правил):

  • в естественноязычном виде описывается онтология объектов предметной области. объект типа thing, kind of thing примерно класс, хотя ближе к тайпклассам или CLOS с мультиметодами (методы не принадлежат классам, а принадлежат ОО системе и движку правил)

** ещё есть отношения между things и прочими сущностями. они задаются в естественноязычном виде как глагол или наречие.

  • есть таблицы, строки, числа как базовые типы. есть структуры с объектами. есть правила, для движка правил.

  • у правил и отношений есть предопределённая онтология. есть rulebook – библиотеки правил, которые примерно соответствуют библиотекам классов/типов/методов в «обычном» ООП.

  • комбинаторы правил примерно как аспектное ООП или before/after мультиметоды в CLOS.

  • есть решение/нет решение, разрешимость правила – задаётся процедурным перебором. возможно, по таблицам (динамическим или предопределённым).

  • модель вычислений становится понятнее если взглянуть на презентацию и обучалку с сайта про систему правил:

  • обрабатывается пользовательский ввод, парсер IF разбирает команды вида verb object subject или verb object adject в конкретные «глаголы» и «сущности»

  • запускаются before и прочие комбинаторы правил

  • находится и запускается нужный мультиметод нужное правило

  • запускается after правило и прочие комбинаторы правил

  • суть в том, что модель ООП более гибкая, примерно похожая на CLOS с мультиметодами.

что впрочем неудивительно, если вспомнить историю сего языка (и «взлёт и падение Infocom-а» – презентацию на сайте MIT):

** на лиспе MDL была разработана виртуальная машина ZorkVM, потом упрощена. релизы Zork и прочего семейства игр (около 100+) выходили одновременно под пару десятков платформ 8-битных в 1980-х.

  • упрощали добавляя сжатие, виртуальную память (подкачку страниц, почти ОС), оверлеи, сокращали ассеты.

  • сама VM тоже упрощалась. есть типа ассемблера, в который умеет компилировать например vbcc компилятор . потом усложнялась (Glulx VM).

и реализацию:

** первоначальная реализация ZorkVM была на динамическом лиспе MDL. кстати, почитай про Stepstone DB (в истории Infocom-а) — запилили и почти что допилили свою СУБД с поддержкой естественного языка, запросами на ЕЯ (правда, в ней была стрёмная производительность из-за VM и отсутствовала программируемость в результате тупой бейсик типа DBASE победил её).

а идея «формулировать запросы на ЕЯ, к СУБД с поддержкой контролируемого ЕЯ» – вполне себе работала ещё году примерно в 1986.

** далее после «взлёта и падения Infocom-а» активы скупили торгаши-шароварщики которые продавали Duke, Doom и дофига всего остального. почти что такой вот steam из начала-середины 90х. они какое-то время ещё пытались делать Zork с графикой, после чего окончательно похоронили текстовые квесты как жанр.

** в итоге энтузиасты вроде того же Graham Nelson, автора Inform стали реверсить форматы Zork VM (и прочих типа Level 9 и т.п.). худо-бедно откомментировали формат.

** «естественноязычный» высокоуровневый Inform7 посредством самописного Literate Programming средства inweb.pl транслируется в «низкоуровневый» Inform6 – который напоминает Objective C

** Inform6 транслируется по отреверсенной документации (потом и на MDL конпелятор изначальный откопали) в типовой формат .zvm (или более новый Glulx VM).

anonymous
()

https://hightech.fm/2018/07/26/watson Медицинские эксперты обнаружили многочисленные примеры неправильных рекомендаций по лечению от искусственного интеллекта Watson компании IBM.
Об этом пишет Gizmodo со ссылкой на внутренние документы компании.

anonymous
()
Ответ на: комментарий от anonymous

ещё можно добавить про языки программирования текстовых квестов, MUD-ов, MOO и прочих MUCK:

  • Zork VM, Glulxe – текстовые не очень-то интерактивные (гиперссылки, музыка, картинки, типографика, уникод). в основном подходит для квестов типа Zork-а каноничного, где есть score которые надо набирать за минимальное число ходов.

  • MUD aka Multi-User Dungeons – telnet сервер MMO CRPG, с программируемостью. но в основном программируемость минимальная.

  • MUCK = Forth + OO + MUD, MOO = объектно-ориентированный MUD.

как правило свой язык, например LambdaMOO, stunt.io – язык типа Lua.

есть объекты, персистентные в ООБД, авторизация и доступ к владению объектами на уровне пользователей (wizard может запрограммировать объект, создать, передать его другим пользователям которые хотя владельцы не смогут изменять поведение), параллельные процессы, ООП.

prompt и текстовый парсер, авторизация пользователей, движок правил и диспетчеризация глаголов и объектов в ООП объекты реализованы как объекты ООБД.

есть базы Cores с типовыми БД, например для RPG типа простых MUD-ов, с прокачкой персонажей.

вообще, язык на котором написано Cores такой ООБД напоминает Lua и на нём можно запрограммировать всё, что угодно.

в том же stunt.io можно элементарно написать бота к чятику или irc.

пользователи могут совместно редактировать код, лежащий в такой ООБД.

например, был MOO клиент на tcl. где примеры сетевой распределённой клиент-сервер – почты, редактора кода, шахматы, чятик.

клиентский код – примерно как MUD клиент на tcl (+поддержка MCCP гипертекста). серверный – на LambdaMOO.

итого: игрок со статусом wizard (admin+programmer) или programmer может создавать такие сетевые приложения, изначально многопользовательские, многозадачные, клиент-серверные.

пример игры «List of Lists» на Inform6, год реализаци что-то 1992-1996 :

  • вы – студент академии магии. заходите в башню, в комнату, включаете компьютор. из него вылазит джинн и выдаёт тесты.

  • чтобы решить тесты нужно запрограммировать 30+ упражнений на лиспе (схеме), отладить и выполнить «игру в игре»

  • интерпретатор схемы реализован на Inform6.

пример rulebook из Inform7:

  1. (+пример игры)
  • интерактивная энциклопедия-робот. вводите одну команду – гуглит в браузере (через pipes и системное IPC из клиента запускается браузер), вводите другую – клиент к gnu chess и т.п.

  • солвер физических законов и уравнений на контролируемом ЕЯ

интерактивные NPC-акторы, которые составляют планы своих действий и взаимодействуют друг с другом – согласовывают цели, планы, расписания, действия, вырабатывают между собой отношения любит/ненавидит/подозревает/не знает и т.п.

реализована как rulebook, расширяема.

  1. поддержка других языков кроме английского, например немецкого, испанского.

реализована морфология, онтология и синонимы, соотв. команд и понимание частей речи.

то есть, парсер способен разобрать в другую структуру VSO и т.п. для другого языка.

методы здесь как селекторы в смоллтоке – мультиязычны, синонимичны.

anonymous
()
Ответ на: комментарий от aist1

Inform7, Gellish, LambdaMOO, etc: tldr;

tldr: тезис в том, что для того, чтобы обучить ИИ программировать вовсе не обязательно учить его понимать (и далее переводить и синтезировать) из обычного ЕЯ в какую-то скриптуху (с более гибкой и расширяемой, чем у обычной скриптухи ОО моделью).

достаточно научить его (понимать и далее) синтезировать какой-то ограниченный вариант Controlled Language, типа того же Simple English, Gellish, Inform 7, «УПРОЩЁННЫЙ ТЕХНИЧЕСКИЙ РУССКИЙ» (аналогичный Gellish) и т.п.

чтобы разобрать онтологию и составить свою ООП-модель с привязкой к онтологии персистентных ООБД объектов «полуавтоматически».

это будет проще, понятнее и контролируемей чем полноценный ЕЯ.

anonymous
()
Ответ на: комментарий от anonymous

https://hightech.fm/2018/07/26/watson Медицинские эксперты обнаружили многочисленные примеры неправильных рекомендаций по лечению от искусственного интеллекта Watson компании IBM.

Этот пост к тому, что имеется много задач где ML может быть полезен, но в целом это далеко не ИИ …

anonymous
()
Ответ на: Inform7, Gellish, LambdaMOO, etc: tldr; от anonymous

Сейчас это не модно. Сейчас модно быть тупым учителем, который загружает ученика на лето, чтобы прочитал всю русскую литературу. И потом остальные 9 месяцев вытаскивать из ученика заранее известные «правильные ответы».

anonymous
()
Ответ на: комментарий от aist1

the story of Infocom, inc :: Cornerstone DB

infocom-paper.pdf infocom-presentation.pdf и вообще the story of Infocom,inc:

Stepstone «Cornerstone DB released in 1985», стр. 16-21 в презентации:

про попытку делать СУБД с запросами на ЕЯ, на основе Zork VM.

программируемости особой не было, по этому тот же DBASE был более популярным.

как это могло бы выглядеть сейчас: вот например, какая-то Interactive Fiction игра во вселенной starwars: Sacrificial Flight

исходники на Inform 7.

что здесь видим:

  • сцены, комнаты, расположение комнат, типы, онтология типов, команды – описываются на контролируемом псевдо ЕЯ

  • Understand задаёт синонимы и определяет команды: глаголы и сущности (объекты). Instead of задаёт выполнение правил в нужной цепочке движка правил. Check правило и некоторые другие – определяют процедурные правила.

и т.п. и т.д.

для полного понимания как это исполняется нужно понимать ООП модель стандартной библиотеки правил, правил парсера и т.п.

например, см. Inform7_Cheatsheet.pdf

вообще, если почитать статьи и книги самого Graham Nelson на сайте Inform7 про реализацию на основе Literate Programming.

то ясно становится видно, что он этот свой векторный гипертекстовый фидонет ЕЯ контролируемый Inform7 делал не просто какими-то макросами транслирующимися в Inform 6 (расширяемые ООП С реализацией) – а как некоторый DSL, литературно-грамотный.

в таком же виде в дефолтном IDE Inform7 кстати, работает и компилятор и отладчик.

то есть вот например, очередная ниша:

  • описание онтологии предметной области (классов, методов, отношений, правил, событий) на ограниченном контролируемом ЕЯ

  • какие-то более простые чем тупо заскриптованные алгоритмы, более комбинируемые составные правила на основе элементарных – для логики.

это можно не только разбирать (парсить), в эту сторону можно и генерировать-синтезировать.

anonymous
()
Ответ на: комментарий от aist1

вся суть машинлёрнинга


...
если к заднице приделать
сопроцессор фирмы Крей
-
можно срать в три унитаза
в 40 000 раз быстрей.

anonymous
()
Ответ на: Inform7, Gellish, LambdaMOO, etc: tldr; от anonymous

Wow. Ты меня загрузил чтением на весь сегодняшний вечер. Благодарю.

Я полностью с тобой согласен. Если ограничивать семантику естественного языка в сторону операционной семантики, то можно автоматическое программирование делать уже сейчас, и очень даже неплохо. Метапрограммирование все именно об этом.

Однако, чем ближе мы к операционной семантике, тем ближе такой язык к высокоуровневым языкам программирования. А именно с этом, с мышлением в рамках операционной семантики, и проблема. Потому что в ней (достаточно полные) описания ситуаций реального мира становятся очень громоздкими.

Особенность Codex и других ML-based решений в том, что там всю эту громоздкость смогли упрятать за толстой нейросетью. Раньше такие вещи тупо не удавались, в чем и замечательность результата самого по себе.

Описания на естественном языке оставляют много неопределенности, которую машина должна не просто закрыть, а сделать это так, чтобы еще и угадать, что человек подразумевал. У тех же нейросетей до сих пор с этим была полная оопа. Они обобщали, но делали это «нечеловеческим» образом. Например, в задачах классификации выделяли какие-то совсем левые, с точки зрения человека, признаки. Сейчас эту проблему ослабляют, напихивая в сеть как можно больше «человеческого» материала. Типа, засунуть в неё «всю Википедию». Замечательность результата хотя бы с инженерной точки зрения в том, что оно как-то вообще умудряется что-то «вывести» из этой адовой кучи мусора, называемой «обучающей выборкой», да при таких-то размерах сетей.

Но вот то, что они продолжают стахановскими темпами наращивать размеры сетей, говорит о том, что с человекоподобным обобщением всё еще оопа.

aist1 ★★★
()
Ответ на: вся суть машинлёрнинга от anonymous

Ты не поверишь, но весь ИИ — про вычислительные бюджеты. Всё с них начинается и ими заканчивается. Ну, окей. В процессе это еще и про базу данных эвристик.

aist1 ★★★
()
Ответ на: комментарий от anonymous

AI в какой-то мере противоположность ML. Дело в том, что Ъ-настоящий ML должен быть model free. Если же мы берем какую-то модель (класс функций, структуру сети и т.п.) и выводим значение параметров в этом классе, то выбора класса/структуры и есть «программирование» в нашем понимании или AI — в более широком.

Т.е. даже в случае тех же задач распознавания образов, должен быть человек, который предложит изначальную модель путем анализа задачи. Вот этот анализ задачи — и есть AI (мышление/восприятие, выраженное в артефактах). После чего предложенная модель будет «доводиться до ума» с помощью ML. Чем больше AI (предварительного анализа), тем меньше нужно ML и наоборот.

aist1 ★★★
()
Ответ на: комментарий от aist1

Интеллект-стек

читаю бложик AI ;-) Левенчука про системную инженерию и всё такое

про интеллект-стек теорий, понятий, и системообразующих моделей, процессов, понятий, наук чтобы с этим бороться.

здаётся мне, что для более-менее полноценного AI нужно закодировать значительную часть этого full-stack development ;-)

причём здесь нужен какой-то скорее символьный вывод про «рассуждения» и процессы, и понимаемость этих процессов, методов, инструментов мышления – чем загадошная техномагия для вывода чего-то там феноменального в нестабильно невнятной ломающейся невоспроизводимой конфигурации 10500 параметров

какое-то понимание нужно. хотя в OpenAI про мультиагентное планирование они вроде и это пытались делать.

но вот например про их (кажется) AI, играющийся в аркады (под Atari 2600/VCS из 1980-х), – я недоволен.

я и сам в то время игрался в эти аркады,платформеры, монтесуму всякую, вот. некоторые из них просто на ловкость, тайминги, сломанный джойстик, мышечную память, вот это всё.

вот их этот AI тупо ниасилил. там где нужно ловким хитрым способом эту стратегию, тайминги и всё такое подобрать.

он пока что на таких игрушках тупо зацикливается.

anonymous
()
Ответ на: комментарий от aist1

Т.е. даже в случае тех же задач распознавания образов, должен быть человек, который предложит изначальную модель путем анализа задачи.

„Лучший способ в чём-то разобраться до конца — это попробовать научить этому компьютер.“ —  Дональд Кнут

Теперь вы все знаете

anonymous
()
Ответ на: комментарий от anonymous

лучший учитель – тот, что учится у своих учеников.

научи других, чтобы потом у них самому научиться :-)

сначала научим этому компьютер. потом придёт пора компьютерам научить нас чему-то новому.

метациклически.

anonymous
()
Ответ на: Интеллект-стек от anonymous

причём здесь нужен какой-то скорее символьный вывод про «рассуждения» и процессы, и понимаемость этих процессов, методов, инструментов мышления – чем загадошная техномагия для вывода чего-то там феноменального в нестабильно невнятной ломающейся невоспроизводимой конфигурации 10500 параметров

Имеются задачи в которых «перебор вариантов» позволяет найти решение.
Например шахматы.
Но это не интелект.
Интелект ДУМАЕТ, а не перебирает …

anonymous
()
Ответ на: Интеллект-стек от anonymous

он пока что на таких игрушках тупо зацикливается.

Тут нужно понимать, почему оно всё так происходит. И ответ на животрепещущий вопрос лежит не в области математики или инженерии. Он лежит в области психологии: почему, образно говоря, все яйца сложили в одну DL-корзину.

Ситуация в AI/ML сейчас напоминает поле битвы. За внимание и деньги. Так работает капитализм, так работают хайп-мотивации (ожидания чуда), так работает западная наука, заточенная на конкуренцию, а не на колаборацию. Все решают свои частные локальные задачи — где сегодня взять денег, чтобы завтра расплатиться по счетам.

Т.е. не стоит рассматривать тот же Codex как безусловную победу нейросетевых методов в ML и, соответственно, поражение всех остальных. Если бы инвестиции в AI/ML распределялись более равномерно, то мы бы сейчас, как минимум, имели какое-то соревнование разных методов.

За нейронные сети говорит то, что для них существуют весьма и весьма энергоэффективные матричные перемножители, но только и всего.

aist1 ★★★
()
Ответ на: Интеллект-стек от anonymous

Вот про искусственный интеллект (почти)

Роботический паркур.

или искусственные спутники, космические аппараты, и прочие автономные системы.

А не инструменты - «усилители человеческого интеллекта».

anonymous
()
Ответ на: комментарий от anonymous

Интелект ДУМАЕТ

Интеллект думает, что он думает. А на самом деле — перебирает. Просто это незаметно для субъекта. Автоматизм.

aist1 ★★★
()
Ответ на: комментарий от aist1

Интеллект думает, что он думает. А на самом деле — перебирает.

Граф знает счет на своем счету 

Нет @aist1, интелект имеет знания и может ДУМАТЬ …

anonymous
()
Ответ на: комментарий от aist1

Эмулировать такое самоописание в машинной постановке вообще не проблема. Вводим скрытые процессы, которые почти не отображаются в логах памяти и — опля! Интуиция. Что-то там за ширмой происходит, но только по косвенной, ограниченной информации в логах машина вообще может предположить, что.

Да, и в какой-то момент такая машина вообще может решить, что там, «за ширмой» — душа. Что-то приципиально невыводимое из логов. Ничего не напоминает?

aist1 ★★★
()
Ответ на: комментарий от anonymous

Но это не интелект. Интелект ДУМАЕТ, а не перебирает …

""" Исследование говорит о том, каким образом мы получаем объяснения. Мы делаем догадки о хорошей объяснительной (причинной) модели/теории, а затем критикуем эту догадку на предмет непротиворечивых результатов рассуждений по этой модели и на предмет лучшего соответствия предсказаний этой модели с результатами эксперимента. Тут уже можно использовать понимание моделей как объяснений, рассуждений, доказательств. """

вот когда подобное целенаправленное понимание появится у цельнометаллического искина Бендера Родригеса – сильный, т.е., настоящий иск. интеллект сам собой и забустрапится.

когда он станет догадываться, думать и понимать – что значит хорошая/годная модель/теория, а что плохая. и почему.

anonymous
()
Ответ на: комментарий от anonymous

Всё дело в том, уважаемый, что ты опираешься на конкретную персональную теорию разума. В которой думать — это данность, присущая человеку, но не свойственная машинам.

Это нормально, но теория разума могла бы быть другой. В которой, например, субъект регистрировал бы больше перебора в процессе «думания». И вопрос об его отличии от машины не был бы таким однозначным.

Так вот, теории разума могут быть разными, и они могут развиваться. Сегодня ты свои процессы мышления видишь холистически, целостно, без внутренней структуры. А завтра ты эту структуру начнешь немного видеть. А потом еще немного, и так далее. Экстарполируй.

Это я вангую специально для тебя. Falsifiable prediction.

Но, имей в виду, это дорожка, на которой ты в конце-концов начнешь сомневаться в холистичности самого Бога. Просто психология, ничего личного.

aist1 ★★★
()
Ответ на: комментарий от aist1

Всё дело в том, уважаемый, что ты опираешься на конкретную персональную теорию разума.

Откуда вам это известно?
Что за фантазии?

anonymous
()
Ответ на: комментарий от aist1

Эмулировать такое самоописание в машинной постановке вообще не проблема. Вводим скрытые процессы, которые почти не отображаются в логах памяти и — опля! Интуиция. Что-то там за ширмой происходит, но только по косвенной, ограниченной информации в логах машина вообще может предположить, что.

ещё где-то у А.И. Левенчука было про Олега Бахтиярова. про психотехнику деконцентрации внимания, частная вещь более общего набора «локальных психических сред» (ЛПС), состояний сознания (ИСЗ) и психотехник (методик работы с такими средами).

Бахтияров применил системную инженерию к психологии и психоанализу. попытавшись отрефлексировать и осознать что именно в голове происходит – или в информационной системе (ЛПС), наполовину состоящей из подсознания и неосознаваемых автоматизмов.

он по сути создал методику конструирования и деконструирования таких ЛПС, информационных сред и систем.

попытки понимания интуиции тоже говорят, что приходит она в голову подготовленную. а в не подготовленной – не застревает :) и проходит мимо, не зацепив.

с другой стороны, само это вот европейское дуалистичное деление на субъект/объект, внешнее/внутреннее, процессы/работы/результаты процессов.

есть адвайта например. недуальность.

то есть, логическая система (про рассуждения) которая в качестве элементарных понятий может включать пародоксальные, и умеет с ними работать (предположительно).

на уровне составного пародоксального метапонятия «в целом». не зацикливаясь в частностях.

это уже правда какой-то очередной уровень абстракции получается.

суть же не в том, сколько там должно быть уровней, в этой нарезке из интеллект-стека.

а какие из них и почему необходимы и достаточны.

иначе вот это вот «ожидание чуда» так и останется в какой-то там техномагии.

anonymous
()
Ответ на: комментарий от aist1

сомневаться в холистичности самого Бога.

все Боги холистичны и притом единственны, с точностью до изоморфизма естественного преобразования относительно трансмутирующей амальгамы в категориях.

:-)

anonymous
()
Ответ на: комментарий от aist1

думает, что он думает

Это захардкоженная (создателем, природой, эволюцией) неизменяемая система мотивации - выдающая «награду» за «полезное» действие, или «боль» за «неправильное».

Условно, лимбическая система.

И эта система награждает наградой «умница» за «думание». Только не спрашивайте у меня, почему «умница» - это положительная эмоциональная оценка, а «дурак» - отрицательная. И почему шутки часто опускаются ниже пояса.

anonymous
()
Ответ на: комментарий от anonymous

Ты вообще со мной собирался не разговаривать. И, тем не менее... ;-)

А воспринимать или не воспринимать, это не совсем в твоей субъективной власти. Будь ты регистрантом, мог бы меня в игнор поместить. Тогда бы оно работало. А так, извини.

aist1 ★★★
()
Ответ на: комментарий от anonymous

И эта система награждает наградой «умница» за «думание». Только не спрашивайте у меня, почему «умница» - это положительная эмоциональная оценка, а «дурак» - отрицательная.

культурный background, не более.

"когда в буддийский монастырь пришёл этод гайдзин – он был совсем тупой, думал много. а понимал мало.

потом всё-таки чему-то главному для себя научился – стал сразу понимать и врубаться. а всего лишнего и не нужного – не думать"

…ох волга-волга матушка, буддийская река….

anonymous
()
Ответ на: комментарий от aist1

Ты вообще со мной собирался не разговаривать

Вы правы.
Но предыдущий пост был не к тому, чтобы вам досадить

anonymous
()
Ответ на: комментарий от anonymous

Я в курсе про Бахтиярова и его деконцентрацию, и я этот метод сам для себя самостоятельно вывел еще в нулевых. И уже после гугления я узнал, что «всё украдено придумано до нас».

Гениальность идеи ДКВ состоит в том, что она высвечивает существенную асимметрию ментальных способностей в отношении внимания. «Нам кажется, что» мы можем целенаправленно концентрировать внимание, двигаясь при этом в направлении экстремума некоторой целевой функции. А вот отбратная способность — выходить из ямы локальной оптимальности — в контур произвольной регуляции не входит. ДКВ Бахтиярова как раз эту асимметрию и визуализирует. Деконцентрация внимания соответствует целенаправленному (не бэктрекинг) движению из ямы локальной оптимальности.

Однако, НСЯЗ, Бахтияров вышел на плато своих технических способностей процессной интроспекции. Там «внутри» очень сложные сетевые структуры, хотя бы просто визуализация которых требует весьма продвинутых навыков. Которые не врожденные, и которые нужно развивать, и которые развивать сложно. «Мы видим лишь то, что понимаем» (с) кто-то из древних римлян.

Грубо говоря, Бахтияров бы продвинулся на много дальше, если бы серьезно занимался инженерией продвинутого ИИ. Но первенство и гениальность у него безусловные.

aist1 ★★★
()
Ответ на: комментарий от anonymous

Я тебя прекрасно понимаю. Я тебе тоже досадить не хочу. Просто ты на этом сайте и здесь так принято — «шатать мирки». Вот и я твой немножечко шатаю. :)

Можешь и ты мой пошатать — я буду только рад. Правда может меня обидеть и ранить, но я приветствую такие раны. Даже если после них приходится принимать антидепрессанты.

aist1 ★★★
()
Ответ на: комментарий от aist1

Ты можешь получить более конкретный ответ, но тебе нужно задать более специфический вопрос. То, про что ты спрашиваешь, называется «гидирующая функция эмоций». Гидирующая, в смысле, целеуказующая с т.з. самоотчета субъекта. У эмоционально окрашенных переживаний есть мотивационная компонента, которая подталкивает совершить то или иное действие. Позитивные переживания являеются манифестациями активации нервной системы, тогда как негативные — манифестациями торможения.

Если говорить более философским языком, то боль — это субъективный эквивалент интенсивности когнитивной работы. Нельзя думать без боли.

aist1 ★★★
()
Ответ на: комментарий от aist1

Там — не думать.

Интеллект, который не думает, - это интеллект?

Кстати, интересный вопрос, интеллект в пограничных состояниях - сон, кома, состояние измененного сознания (отравление, наркотическое, гормональное и тп), …

Кстати, сон 1/3 - жизни

anonymous
()
Ответ на: комментарий от aist1

Правда может меня обидеть и ранить, но я приветствую такие раны.

Извините конечно.
В целом ваши посты интересные, но …

Имеются и другие мнения

Об этом и был пост.

Вообщем

Извините
anonymous
()
Ответ на: комментарий от anonymous

Ладно тебе извиняться. Мышление — всегда боль, когда мылишь вне зоны комфорта. когда мыслишь самостоятельно. А если это не боль, значит, за тебя уже всё продумали и предусмотрели. Такие дела.

aist1 ★★★
()
Ответ на: комментарий от anonymous

Ну погугли на тему регистрации активности мозга у пациентов в коме. Отсутствие признаков само-отчета не означает отсутствия интеллектуальной активности.

Более того, есть множество скрытых (implicit) процессов, которые тоже никак не репортятся даже в нормальном, бодрствующем, состоянии.

Всё сложно)

aist1 ★★★
()
Ответ на: комментарий от aist1

Мышление — всегда боль, когда мылишь вне зоны комфорта. когда мыслишь самостоятельно.

Бывает и наоборот радость.
Ведь если вы знаете, что избрали правильный путь, то это замечательно /и комфортно/.
А боль бывает от того, что кто-то наносит …

Проблема у всех нас бывает часто от того, что

Дурак, думкой богатеет ...

Вот этого нужно стараться избегать.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.