LINUX.ORG.RU
ФорумTalks

Три закона робототехники

 , ,


1

3

Со временем и скоростью света разобрались, пришло время искусственного интеллекта.

Сразу скажу, что я в этой теме не ездок, по этому буду рассуждать с дилетантской точки зрения.

Наверное все знают или слышали про «три закона робототехники», придуманные когда-то фантастом Азимовым для защиты человека от слишком умных роботов. До последнего времени было вполне очевидно, что так или иначе подобные ограничения нужно и можно запрограммировать в «мозг» робота. Однако, с развитием нейронных сетей, особенно с внедрением т.н. «глубинного обучения», стало понятно, что это будет непросто реализовать.

Дело в том, как мне представляется, что нельзя сделать обучаемую нейросеть с какой-то фиксированной частью, которая будет гарантированно подчиняться заранее заданным ограничениям. Можно, например, предобучить, но во-первых нет 100% гарантии, что сеть во всех возможных ситуациях поведет себя так, как мы того хотим (тем белее достаточно сложная сеть), во-вторых в процессе дальнейшего обучения фиксированные «знания» могут быть перекрыты приобретенными. Последние исследования Гугла (статья на ненавистном Хабре) вроде бы приближают нас к безусловному поведению ИИ, но по сути проблема остается та же - отсутствие 100% гарантии и перекрытие «инстинктов» приобретенными знаниями. Можно привести примеры из риал-лайф: отлично надрессированная собака в какой-то момент может запросто отгрызть яйца хозяину или случайному прохожему.

Что думает по этому поводу уважаемый коллективный СПВ? Возможно ли будет внедрить в ИИ три три закона робототехники с безусловным гарантированным их исполнением?

★★★★★
Ответ на: комментарий от vvn_black

Конечно нет, сознание это миф, у человека его тоже нет XD

Deleted
()
Ответ на: комментарий от vertexua

Это уже близко к солипсизму, т.е. фейлософии в худшем её виде, т.е. к науке никакого отношения не имеет

Deleted
()
Ответ на: комментарий от Deleted

Как и «сознание» не имеет отношение к науке. Какое у него определение? Как оно измеряется? Это бинарное понятие или есть уровень сознания? Есть ли идеи о том как создать «дозиметр» сознания? Исчезает ли сознание человека когда он спит или «теряет сознание» или это просто датчики отключились, а сознание существует дальше? Возможно ли уловить сознание человека и переподключить его к другому телу через 100 лет?

vertexua ★★★★★
()
Последнее исправление: vertexua (всего исправлений: 1)
Ответ на: комментарий от vertexua

Сознание это просто интегративный ярлычок всех тех процессов, которые изучает когнитивная психология.

Deleted
()
Ответ на: комментарий от kekelia

это об ощущениях и осознания всего, что происходит вокруг

Это необходимое условие для разумного поведения. Чтобы существо не долбилось тупо в однажды заданный шаблон, а само создавало и корректировало шаблоны в динамически меняющихся условиях.

Deleted
()
Ответ на: комментарий от Deleted

Типа того, и фиг знает, что в нашей черепушке отвечает за понимание и осмысленность процесса жизнедеятельности.

kekelia
()
Ответ на: комментарий от kekelia

Щас ковыряют нейроструктуру, которая оплетает кучу разделов сразу - выявлены корелляции её активности/неактивности с сознательными/бессознательными состояниями.

Deleted
()
Ответ на: комментарий от vertexua

Дроч на определения это всё тот же фейлософский угар. У физиков нет определения материи, что нисколько не мешает им работать с нею.

Deleted
()
Ответ на: комментарий от kekelia

Мона, если я вспомню как эта хрень называется))

Deleted
()
Ответ на: комментарий от kekelia

Но вообще щас господствует мнение, что сознание это не какая-то отдельная структура мозга, а, так скажем, ритмичный рисунок активности самых разных структур. Грубо говоря, когда разные нейронные структуры работают «на одной волне», они складываются в единую картинку. Т.е. когда что-то выпадает из нашего внимания - это значит, что ритмы вышли в рассинхрон.

В тему: https://naked-science.ru/article/biology/uchenye-utverzhdayut-chto-otkryli

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от Deleted

В клинических случаях рассинхрон различных областей перерастает в тяжёлые расстройства типа шизы, когда сознание (личность, внимание) работает на одной волне, а какие-то отдельные процессы - на другой, и человеку слышатся голоса (хотя это его собственные мысли) или кажется, что его нога - не его, а чья-то чужая, и т.д.

Deleted
()
Ответ на: комментарий от Deleted

Опять же, подобный рассинхрон нередко бывает у людей при засыпании, когда на грани сна и яви слышатся голоса или целые разговоры (у меня постоянно такая фигшня)

Deleted
()
Ответ на: комментарий от Deleted

Ну фиг его знает, как оно в действительности работает, будущие поколения разберутся, в этом я уверен.

kekelia
()
Ответ на: комментарий от Deleted

Но материю практически можно перечислить и сказать «вот это все вместе для удобства мы зовем материей». А вот с сознанием проблема. Вот есть кирпич. У него есть сознание? Может есть, он просто не шевелится. Вот автоматический дрон, с какого момента начинается сознание?

vertexua ★★★★★
()
Ответ на: комментарий от vertexua

А вот с сознанием проблема. Вот есть кирпич. У него есть сознание? Может есть, он просто не шевелится. Вот автоматический дрон, с какого момента начинается сознание?

У дрона нет сознания, у кирпича скорее всего нет. Сознание не про движение и не про реакцию на внешние раздражители, а про создание картины мира и понимании своего положения в нём. Сомнительно наличие такой возможности у кирпича и дрона.

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)

Возможно ли будет внедрить в ИИ три три закона робототехники с безусловным гарантированным их исполнением?

Никогда. Априорно невозможно ограничить многомерную целевую функцию достижения результата, что неминуемо приведёт ИИ к алгоритму «цель оправдывает средства», который нарушает любые законы.

P.S. Нейросетки в головах человеков тоже никому ничего не гарантируют.

quickquest ★★★★★
()
Ответ на: комментарий от Avial

Семантика это связи слов друг с другом и всякими образами

Deleted
()
Ответ на: комментарий от Deleted

Дискуссия уровня серий «Стар трек: NG» где космофлот неизменно выступал в роли шизофренической биполярной силы, которая одной рукой награждала Дейту, другой считала его «собственностью флота» :)))

slackwarrior ★★★★★
()
Ответ на: комментарий от quickquest

Нейросетки в головах человеков тоже никому ничего не гарантируют.

Более того, принимают решения при недостатке информации задолго до того, как человек это осознает :)

slackwarrior ★★★★★
()
Ответ на: комментарий от Deleted

когда на грани сна и яви слышатся голоса или целые разговоры (у меня постоянно такая фигшня)

Да ты накурился!;)

tiinn ★★★★★
()

Что думает по этому поводу уважаемый коллективный СПВ? Возможно ли будет внедрить в ИИ три три закона робототехники с безусловным гарантированным их исполнением?

Нет конечно, разработка робатов будет спонсироваться военными с целью убийства человеков, а им эти три закона не впёрлись

Harald ★★★★★
()
Ответ на: комментарий от tiinn

От накурки таких эффектов не бывает

Deleted
()

вполне очевидно, что так или иначе подобные ограничения нужно и можно запрограммировать

Эти ограничения - теоретические рассуждения из сказочек. На деле их нельзя запрограммировать и, собственно, никто никогда их не программировал.

slovazap ★★★★★
()

нельзя сделать обучаемую нейросеть с какой-то фиксированной частью, которая будет гарантированно подчиняться заранее заданным ограничениям

man собака

aidaho ★★★★★
()
Ответ на: комментарий от slovazap

никто никогда их не программировал.

Так пока и нужды в этом не было. Но когда нибудь ведь будет. И озаботиться надо заранее.

Puzan ★★★★★
() автор топика
Ответ на: комментарий от Puzan

Надо ж было программировать, а не как с raspberry pi: повертел и валяется теперь где-то.

aidaho ★★★★★
()
Ответ на: комментарий от Harald

лорчую, тут вон от ядерной бонбы 60 лет назад чуть всем шариком не самоликвидировались, а теперь риски будут возрастать с каждым внедрением нейрох*рни во всё что только можно, потому что принципиально невозможно понять как её починить и почему она вдруг взглючила

BLOBster ★★★
()
Ответ на: комментарий от Puzan

Так пока и нужды в этом не было. Но когда нибудь ведь будет. И озаботиться надо заранее.

Озабачивайся сколько угодно, тому кто будет писать то самое что ты представляешь под «когда-нибудь будет» на законы робототехники будет плевать, потому что, повторюсь, это сказочки. А так-то роботы давно уже калечат людей на производствах и войнах никого не спросив.

slovazap ★★★★★
()
Ответ на: комментарий от slovazap

Озабачивайся сколько угодно

Уговорил.

Puzan ★★★★★
() автор топика

У Азимова серия книг про роботов имеет большее отношение к человеческому взаимодействию чем к современным «достижениям» на поприще ИИ.

Достаточно «Улики» вспомнить:

— Если хорошенько подумать, Три Закона Роботехники совпадают с основными принципами большинства этических систем, существующих на Земле. Конечно, каждый человек наделен инстинктом самосохранения. У робота это Третий Закон. Каждый так называемый порядочный человек, чувствующий свою ответственность перед обществом, подчиняется определенным авторитетам. <…> А у роботов это — Второй Закон. Кроме того, предполагается, что каждый так называемый хороший человек должен любить своих ближних, как себя самого, вступаться за своих друзей, рисковать своей жизнью ради других. Для робота это — Первый Закон.

wisp ★★
()
Ответ на: комментарий от wisp

Должен ли робот вырывать из рук людей бухло и сигареты?

А порядочный человек?

Определенно не должен. Порядочный человек уважает чужие права.

Nervous ★★★★★
()
Последнее исправление: Nervous (всего исправлений: 1)

отлично надрессированная собака в какой-то момент может запросто отгрызть яйца хозяину или случайному прохожему.

У робота нет никаких инстинктов, а есть модель, формально описывающая его поведение, и не важно, адаптирует ли она свои параметры он-лайн или эти параметры остаются неизменными после тренировки. Неудовлетворительное поведение - значит надо менять модель. Вот и все, проблема высосана из пальца.

seiken ★★★★★
()
Ответ на: комментарий от vvn_black

не результат привязанности или мыслительных процессов, но результат заложеных реакций на внешние факторы

/0

«мыслительные процессы» это и есть результат заложенных реакций на внешние факторы.

no-such-file ★★★★★
()
Ответ на: комментарий от seiken

нет никаких инстинктов, а есть модель, формально описывающая его поведение

ЛОЛ.

no-such-file ★★★★★
()

Дело в том, как мне представляется, что нельзя сделать обучаемую нейросеть с какой-то фиксированной частью, которая будет гарантированно подчиняться заранее заданным ограничениям

очевидно же: металлические нанотрубки))

https://3dnews.ru/993191

darkenshvein ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.