LINUX.ORG.RU

История изменений

Исправление X512, (текущая версия) :

Я вижу такие чисто технические необходимые условия сильного ИИ на электронной элементарной базе:

  1. Интеллект – это не задача, а процесс. У него нет никакой цели и он может непрерывно выполняться сколь-угодно долго. У него нет чётко выделенных фаз обучения и применения результатов обучения.

  2. Динамическое выделение памяти. Для кодирование одних образов/воспоминаний/моторных программ может выделяться больше памяти, чем под другие. Память может освобождаться и переиспользоваться. Насколько я знаю у большинства современных нейросетей размер данных и топология заданы намертво при проектировании.

  3. Использование деревьев и логарифмического поиска. Обращение к памяти должно затрагивать логарифмическое число данных от общего объёма доступной памяти. Тоже с запоминанием. У большинства нейросетей сложность работы O(n), каждый шаг требует обращения/перезаписи ко всем коэффициентам.

  4. Распознавание образов из непрерывных данных (видео, а не фотографии) на основе трекинга. Распознование происходит не заново для каждого кадра, а основывается на результате распознавания предыдущего кадра и обновлении этого результата. Дифференциальность (изменился вход, изменить выход), а не функциональность (y = f(x) и каждый раз заново считать f) работы.

  5. Отдельные аналоговые и дискретные подсистемы. Обработка текста, принятие решений, работа с объектами и распознавание визуальных образов, генерация сигналов на моторы для движения происходит по разным принципам. Для дискретной подсистемы выгодно использовать существующие компьютерные алгоритмы вроде графов, бинарных деревьев, алгоритмов поиска, планирования и т.д..

  6. Уделение серьёзного внимания проблеме времени. ИИ должен уметь прикидывать сколько времени займёт та или иная задача и учитывать это при принятии решений. От выполнения задачи методом, который займёт слишком много времени, выгодно отказаться в пользу поиска другого метода.

Исправление X512, :

Я вижу такие чисто технические необходимые условия сильного ИИ на электронной элементарной базе:

  1. Интеллект – это не задача, а процесс. У него нет никакой цели и он может непрерывно выполняться сколь-угодно долго.

  2. Динамическое выделение памяти. Для кодирование одних образов/воспоминаний/моторных программ может выделяться больше памяти, чем под другие. Память может освобождаться и переиспользоваться. Насколько я знаю у большинства современных нейросетей размер данных и топология заданы намертво при проектировании.

  3. Использование деревьев и логарифмического поиска. Обращение к памяти должно затрагивать логарифмическое число данных от общего объёма доступной памяти. Тоже с запоминанием. У большинства нейросетей сложность работы O(n), каждый шаг требует обращения/перезаписи ко всем коэффициентам.

  4. Распознавание образов из непрерывных данных (видео, а не фотографии) на основе трекинга. Распознование происходит не заново для каждого кадра, а основывается на результате распознавания предыдущего кадра и обновлении этого результата. Дифференциальность (изменился вход, изменить выход), а не функциональность (y = f(x) и каждый раз заново считать f) работы.

  5. Отдельные аналоговые и дискретные подсистемы. Обработка текста, принятие решений, работа с объектами и распознавание визуальных образов, генерация сигналов на моторы для движения происходит по разным принципам. Для дискретной подсистемы выгодно использовать существующие компьютерные алгоритмы вроде графов, бинарных деревьев, алгоритмов поиска, планирования и т.д..

  6. Уделение серьёзного внимания проблеме времени. ИИ должен уметь прикидывать сколько времени займёт та или иная задача и учитывать это при принятии решений. От выполнения задачи методом, который займёт слишком много времени, выгодно отказаться в пользу поиска другого метода.

Исходная версия X512, :

Я вижу такие чисто технические необходимые условия сильного ИИ на электронной элементарной базе:

  1. Интеллект – это не задача, а процесс. У него нет никакой цели и он может непрерывно выполняться сколь-угодно долго.

  2. Динамическое выделение памяти. Для кодирование одних образов/воспоминаний/моторных программ может выделяться больше памяти, чем под другие. Память может освобождаться и переиспользоваться. Насколько я знаю у большинства современных нейросетей размер данных и топология заданы намертво при проектировании.

  3. Использование деревьев и логарифмического поиска. Обращение к памяти должно затрагивать логарифмическое число данных от общего объёма доступной памяти. Тоже с запоминанием. У большинства нейросетей сложность работы O(n), каждый шаг требует обращения/перезаписи ко всем коэффициентам.

  4. Распознавание образов из непрерывных данных (видео, а не фотографии) на основе трекинга. Распознование происходит не заново для каждого кадра, а основывается на результате распознавания предыдущего кадра и обновлении этого результата. Дифференциальность (изменился вход, изменить выход), а не функциональность (y = f(x) и каждый раз заново считать f) работы.

  5. Отдельные аналоговые и дискретные подсистемы. Обработка текста, принятие решений, работа с объектами и распознавание визуальных образов, генерация сигналов на моторы для движения происходит по разным принципам. Для дискретной подсистемы выгодно использовать существующие компьютерные алгоритмы вроде бинарных деревьев, алгоритмов поиска, планирования и т.д..

  6. Уделение серьёзного внимания проблеме времени. ИИ должен уметь прикидывать сколько времени займёт та или иная задача и учитывать это при принятии решений. От выполнения задачи методом, который займёт слишком много времени, выгодно отказаться в пользу поиска другого метода.