LINUX.ORG.RU
ФорумTalks

«Когда мы придем к власти...»

 


0

2

Не раз слышал загибы прогеров, что когда они придут к власти, они везде насадят справедливый искусственный интеллект. Чтоб, значит, все были равны перед законом, никакой коррупции и вот это всё.

Тем временем ИИ ютуба со словами «доктор, откуда у вас такие картинки?» распознает на диаграммах с рендерами соски и блокирует превьюхи за нарушение политики в отношение обнажёнки:

https://twitter.com/anatudor/status/1373294023780278281

Наша команда, говорят, внимательно рассмотрела вашу картинку и видит в ней ГРЕШНОВАТО. В этот раз, так и быть, не накажем.

★★★★★

Последнее исправление: AP (всего исправлений: 1)

Ответ на: комментарий от X512

зачем надо вообще кого-то сажать за убийство «ради справедливости»?

Для баланса.

Я вижу в этом чисто утилитарный смысл: человек несколько десяток лет не будет иметь возможность убивать других людей.

Тогда надо сажать за любое преступление пожизненно, или вообще казнить. Чтобы не мог. Тем более за убийство. Это бред а не справедливость. Обосновать почему за воровство хлеба не надо казнить - ведь казненный уже не украдет больше, можно только внутренним понятием о справедливости.

James_Holden ★★★
()
Ответ на: комментарий от X512

Давайте расскажите про единую, всеми признанную и теоретически обоснованную справедливость.

всеми признанную

Но ведь она не зависит от того, признаем мы ее или нет %)

Nervous ★★★★★
()
Ответ на: комментарий от X512

Давайте расскажите про единую, всеми признанную и теоретически обоснованную справедливость.

Если подумать то законы физики справедливы сами по себе и никто не уходит от наказания и награды.

torvn77 ★★★★★
()
Ответ на: комментарий от torvn77

Абсолютная справедливость есть разве что у мусульман, и то, она определяется не неживой природой а Аллахом. То есть она все равно не отделима от интеллекта.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Для баланса.

Что за баланс, зачем он нужен? Это что-то из области религии по типу Инь-Янь?

Тогда надо сажать за любое преступление пожизненно, или вообще казнить. Чтобы не мог.

Тогда будут нарушены свободы преступника. Свобода распространяется только на тех, кто не нарушает аналогичные свободы других. То есть пошли вы на меня с ножом, значит лишаетесь свободы жизни и я могу вас убить в качестве самообороны.

Обосновать почему за воровство хлеба не надо казнить - ведь казненный уже не украдет больше, можно только внутренним понятием о справедливости.

Нет, это можно обосновать статистикой. Человек, совершивший преступление, имеет повышенную вероятность повторного нарушения аналогичного преступления.

X512 ★★★★★
()
Последнее исправление: X512 (всего исправлений: 1)

Не раз слышал загибы прогеров, что когда они придут к власти, они везде насадят справедливый искусственный интеллект.

Больше об этом мы слышим с больших экранов, в идиотских фильмах типа Терминатора, от сценаристов с идиотическими сценариями, далекими от программирования.

Чтоб, значит, все были равны перед законом, никакой коррупции и вот это всё.

Ой, а от этого вообще какой-то демшизой повеяло. Ведь некоторые тахнари таки за технофашизм.

Тем временем ИИ ютуба со словами «доктор, откуда у вас такие картинки?» распознает на диаграммах с рендерами соски и блокирует превьюхи за нарушение политики в отношение обнажёнки:

Так это надо благодарить современный виток ИИ-истерии, ИИ-«лета». Еще пока она не набрала критическую массу, пока не было серьезной катастрофы, чтобы охладить пыл спекулянтов и иных впечатлительных обывателей.

На счет получения программистами власти и насаждения ИИ, я бы не стал беспокоиться. Ведь тут и к естественному интеллекту вопросы возникают. Если уровень интеллекта будет средним программистским уровнем, думаю, такая команда и 1/256 пути к власти не пройдет. И тут дело не в профессиональной грамотности, а именно в общем интеллекте. Достаточно почитать перлы из этой ветки, чтобы убедиться, что глобальную власть такие кадры не возьмут. Без обид, просто у каждого своя специализация.

seiken ★★★★★
()
Ответ на: комментарий от X512

Это что-то из области религии по типу Инь-Янь?

Да.

Что за баланс, зачем он нужен?

Человеку не известно, это определяет тот кто создает. В случае с человеком можешь у эволюции спросить, или у рептилоидов, или у Бога. В зависимости от веры.

В случае с роботами с ИИ - надо спрашивать у человека. А он и понятия не имеет сам.

Свобода распространяется только на тех, кто не нарушает аналогичные свободы других. То есть пошли вы на меня с ножом, значил лишаетесь свободы жизни и я могу вас убить в качестве самообороны.

Ну ясно - это обычное ветхозаветное понятие о справедливости. Око за око, зуб за зуб. Только уже почти 2000 лет новый действует вместо ветхого. От африки и предков мы должны были уже отдалиться.

Человек, совершивший преступление, имеет повышенную вероятность повторного нарушения аналогичного преступления.

Ну так казни за кражу 10 рублей. Обнулишь вероятность повторного. Справедливо? Очень.

James_Holden ★★★
()
Ответ на: комментарий от seiken

Если уровень интеллекта будет средним программистским уровнем, думаю, такая команда и 1/256 пути к власти не пройдет.

  1. Программистам могут помочь.
  2. Не факт что программист как биоэвм и созданный им ИИ будут основаны на одинаковых идеях и алгоритмах.
  3. Более того, по принципу "психотерапевт лечит свои болезни" следует ожидать что созданный ИИ будет создан таким, чтобы максимально компенсировать психологические и поведенческие недостатки тех кто будет иметь власть и реальный контроль над процессом его разработки.
torvn77 ★★★★★
()
Ответ на: комментарий от torvn77

законы физики справедливы сами по себе

Мир, который описывают законы физики, не может выбирать, как ему существовать (наверное). Он просто существует единственно возможным способом, в соответствии со своей природой.

Вопрос о справедливости имеет смысл только для действия, для выбора, а это прерогатива разумных существ, по своей природе способных на такой выбор.

Nervous ★★★★★
()
Ответ на: комментарий от Nervous

Вопрос о справедливости имеет смысл только для действия, для выбора, а это прерогатива разумных существ, по своей природе способных на такой выбор.

Да, то есть предполагается наличие свободы воли.

И тут применительно к ИИ опять огромная проблема - никто толком не знает как работает свобода воли и как ей наделить ИИ.

James_Holden ★★★
()
Ответ на: комментарий от X512

*fixed* FTGJ

Основной договор общества и Президента — проституция, заключался на референдуме.

thunar ★★★★★
()
Ответ на: комментарий от James_Holden

Да.

Тогда какие либо разговоры про формализацию бессмысленны. Религия иррациональна по определению.

X512 ★★★★★
()
Ответ на: комментарий от X512

есть пошли вы на меня с ножом, значит лишаетесь свободы жизни и я могу вас убить в качестве самообороны.

В РФ, непример, не сможете.

thunar ★★★★★
()
Ответ на: комментарий от James_Holden

Да, так в этом же и проблема.

Проблема для вас. Но для людей, которым не требуется религиозная аргументация, это не проблема, проблемы просто нет.

X512 ★★★★★
()
Ответ на: комментарий от X512

Нет, у вас проблемы намного серьезнее. У вас выходит что всех людей на Земле надо транклюкировать во имя ИИ. И обосновать что не надо вы не можете никак без религиозной аргументации.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

И тут применительно к ИИ опять огромная проблема - никто толком не знает как работает свобода воли

По простому: свобода воли – приоритет внутренней мотивации, опирающейся на долговременную память и опыт, над сиюминутными внешними стимулами.

и как ей наделить ИИ.

Пока никак, памяти у ИИ мало, а собственной мотивации нету.

quickquest ★★★★★
()
Ответ на: комментарий от quickquest

По простому: свобода воли – приоритет внутренней мотивации, опирающейся на долговременную память и опыт, над сиюминутными внешними стимулами.

Это называется - определение через другое понятие, о котором тоже никто ничего не знает. Что за мотивация, почему у нас она есть а у ИИ нету и как ИИ ей наделить.

а собственной мотивации нету.

Так вот и проблема.

James_Holden ★★★
()
Ответ на: комментарий от Nervous

Он просто существует единственно возможным способом, в соответствии со своей природой.

Но эта природа справедлива, но только эта справедливость всеобщая, а не только для людей.

torvn77 ★★★★★
()
Ответ на: комментарий от James_Holden

У вас выходит что всех людей на Земле надо транклюкировать во имя ИИ.

Как будто что-то плохое. Замена человеческого биологического интеллекта более прогрессивным компьютерным неизбежна.

X512 ★★★★★
()
Ответ на: комментарий от James_Holden

никто толком не знает как работает свобода воли и как ей наделить ИИ.

Свободу воли можно определить как стремление к сохранению своей жизни путём достижения максимально возможной автаркии всеми оправдывающими себя способами.

torvn77 ★★★★★
()
Ответ на: комментарий от James_Holden

У вас выходит что всех людей на Земле надо транклюкировать во имя ИИ.

А почему нет?
Человечество только что и занято истреблением или ограничением всех не покорных ему разновидностей жизни вне своего вида и истрблением самостоятельных и не покорных людей и родов внутри своего вида.
То, о чём вы пишете это логичное завершение этого процесса, завершение Ленинской борьбы всех против всех выделением одного, единственного и абсолютного победителя борьбы.

torvn77 ★★★★★
()
Последнее исправление: torvn77 (всего исправлений: 1)
Ответ на: комментарий от X512

Замена человеческого биологического интеллекта более прогрессивным компьютерным неизбежна.

Вы его сначала создайте. А потом посмотрим. Пока я вангую что его не создадут.

James_Holden ★★★
()
Ответ на: комментарий от torvn77

А почему нет?

Предлагаю для начала более простой вариант. ИИ создать никто не знает как, но есть американцы. Давай для начала транклюкируем всех людей (кроме американцев) во имя американцев. Почему их - ну например они ступали на Луну, более достойны. Компы разрабатывают, ИИ кстати тоже.

Согласен? Нет? А какая разница?

Я вот просто не хочу чтобы меня транклюкировали. Почему - да фиг знает, потому что меня так запрограммировали. Почему вас не так - это конечно тоже интересный вопрос.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Что за мотивация

Например, мотивация математически может быть представлена «принципом минимакса» ©, с физической реализацией «принципа наименьшего действия» ©.

почему у нас она есть а у ИИ нету

Железячный ИИ не самодостаточен для самокопирования, в отличии от белковых «тварей божьих».

quickquest ★★★★★
()
Ответ на: комментарий от torvn77

Человечество только что и занято истреблением или ограничением всех не покорных ему разновидностей жизни вне своего вида и истрблением самостоятельных и не покорных людей и родов внутри своего вида.

Ну и что? Человек, как и другие виды, так запрограммирован. Это не мы выбрали и не мы сделали. И отвечать не нам.

То, о чём вы пишете это логичное завершение этого процесса, завершение Ленинской борьбы всех против всех выделением одного, единственного и абсолютного победителя борьбы.

Ну так суть этой борьбы в том, что каждый хочет выйти этим победителем. Иначе борьбы бы не было.

Но как показывает тред - не каждый.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Но как показывает тред - не каждый.

И даже не большинство. Большинству не нужно ни с кем бороться и они хотят жить своей жизнью. Люди хотят чтобы от них отстали государства и политики.

X512 ★★★★★
()
Ответ на: комментарий от quickquest

Например, мотивация математически может быть представлена «принципом минимакса» ©, с физической реализацией «принципа наименьшего действия» ©.

Такой интеллект просто залипнет в точке локального минимума. В ступор впадет и все.

Железячный ИИ не самодостаточен для самокопирования, в отличии от белковых «тварей божьих».

Самокопирование реализовать проблем нет. Для этого нужна просто программа, мотивация не нужна.

Вирусы компьютерные самокопируются в полный рост. Но у них нет мотивации все равно.

И у биологических вирусов нет мотивации. С копированием проблем нет - все в масках от них.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Не так долго как ты думаешь: Савельев говорит что создание сканера позволяющего создать цифровой образ мозга с точностью позволяющей полностью рассмотреть каждое отдельное нейроволокно является чисто инженерной задачей для решения которой надо просто собрать инженеров и выделить ресурсы на проектирование и строительство сканера.

Ну а после построения единой карты мозга создание его цифрового эквивалента будет вопросом времени. и точно не вопросом выделения вычислительных ресурсов.
Кто сомневается могут почитать описание зрительной и слуховой коры в книге Глезера "Зрение и мышление", описанное там тянет максимом на несколько видеокарт.

torvn77 ★★★★★
()
Последнее исправление: torvn77 (всего исправлений: 1)
Ответ на: комментарий от torvn77

Если ты уж апеллируешь к Савельеву - то лично он напрочь, просто полностью отрицает возможность создания ИИ. И смеется над специалистами по ИИ в лицо. С чего бы это?

создание его цифрового эквивалента будет вопросом времени

Только после истечения этого времени уже людей естественным путем может не стать. Настолько много может понадобиться времени.

описание зрительной и слуховой коры

Это не интеллект.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Так надо определиться - или транклюкировать всех, или хотят жить.

Роботы никого истреблять не будут. Дадут дожить свой век текущим людям и всё. Люди сами перехотят размножаться при распространении роботов с более развитым интеллектом. Роботам наоборот придётся искусственно поддерживать небольшую популяцию людей для научных целей и на всякий случай.

X512 ★★★★★
()
Ответ на: комментарий от James_Holden

Такой интеллект просто залипнет в точке локального минимума. В ступор впадет и все.

Дык, он существует в пространстве постоянно меняющихся экстремумов, так что не залипнет, ибо вся система динамическая.

Вирусы компьютерные самокопируются в полный рост. Но у них нет мотивации все равно.

Есть, заложенная человеком.

И у биологических вирусов нет мотивации.

Есть, энергетически выгоднее паразитировать и размножаться внутри человеков, чем снаружи.

quickquest ★★★★★
()
Последнее исправление: quickquest (всего исправлений: 1)
Ответ на: комментарий от James_Holden

Если ты уж апеллируешь к Савельеву

Исключительно как к специалисту который знает ч какими инструментами работает и что этими инструментами можно сделать,
в данном случае я на него сослался исключительно как источник сведений о возможностях томографии мозга.

Если ты уж апеллируешь к Савельеву - то лично он напрочь, просто полностью отрицает возможность создания ИИ. И смеется над специалистами по ИИ в лицо. С чего бы это?

Если ты покопаешься в роликах Савельева где он затрагивает вопросы работы компьютера то смеяться над ним будешь уже ты сам, потому как представления даже о организации ПК на уровне блоксхемы у него совершенно неправильные, с таким незнанием как у него он не может оценивать что потенциально может и не может современное IT.

torvn77 ★★★★★
()
Ответ на: комментарий от X512

Роботы никого истреблять не будут.

Ну, если их так запрограммировать - то не будут.

Люди сами перехотят размножаться при распространении роботов с более развитым интеллектом.

Нет, никогда не перехотят. Люди запрограммированы хотеть размножаться, и поэтому будут хотеть всегда. И перепрограммировать людей невозможно никак. Только уничтожать физически. Это же не компьютеры.

при распространении роботов с более развитым интеллектом

Сначала докажите, что человек может создать хотя бы менее развитый интеллект. А сказки сочинять и я умею.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

И смеется над специалистами по ИИ в лицо. С чего бы это?

С того что он известный фрик, допускающий многочисленные грубые ошибки в своих работах.

X512 ★★★★★
()
Ответ на: комментарий от James_Holden

описание зрительной и слуховой коры

Это не интеллект.

Да, ты прав, но с учётом того, что подобным образом организованы и другие входные интерфейсы мозга часть мозга которая ещё не исследована и не понята становится намного меньше.

И это в 1990 году с возможностями того времени.

torvn77 ★★★★★
()
Последнее исправление: torvn77 (всего исправлений: 1)
Ответ на: комментарий от quickquest

Дык, он существует в пространстве постоянно меняющихся экстремумов, так что не залипнет, ибо вся система динамическая.

А как гарантировать, что экстремумы будут меняться? А если нет?

Есть, энергетически выгоднее паразитировать и размножаться внутри человеков, чем снаружи.

Энергетически выгоднее не размножаться и быть снаружи. При этом энергия вообще не тратится. Но они размножаются. То есть уже вирусы нарушают этот принцип. А более сложные организмы тем более.

James_Holden ★★★
()
Ответ на: комментарий от torvn77

На примере компьютера - допустим мы на коленке создали ЦАП, слепили звуковую карту. ЦАП можно из 8 резисторов собрать. Это сильно приблизит нас к пониманию устройства core i7? Нет.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

Люди запрограммированы хотеть размножаться, и поэтому будут хотеть всегда. И перепрограммировать людей невозможно никак.

А вот тут вы заблуждаетесь, в социологии известно что при коэфициэнте рождаемости менее 2.1 наступает демографический коллапс общества, которому способствует распространение нарцисизма и отказа от создания семьи при отсутствии жизненных проблем и угрозы жизни.

torvn77 ★★★★★
()
Ответ на: комментарий от James_Holden

Ну, если их так запрограммировать - то не будут.

Роботов с сильным ИИ никак не будут программировать, это не обычные детерминированные программы по управлению станком. ИИ будет сам обучаться и принимать решения и человек не будет иметь возможности понимать почему принято то или иное решение ИИ.

Нет, никогда не перехотят. Люди запрограммированы хотеть размножаться, и поэтому будут хотеть всегда.

Уже сейчас в развитых странах отрицательный естественный прирост населения. После второго демографического перехода неизбежно сокращение рождаемости. А для этого перехода достаточно наличие равноправия и грамотности у женщин. Женщины, понимая что они полноценные свободные личности, перестают рожать.

Сначала докажите, что человек может создать хотя бы менее развитый интеллект.

Возможность создания сильного ИИ очевидна, потому что вся работа мозга основана исключительно на уже изученных физических принципах. Проблема только в сложности, но это дело времени. Многократное превосходство полупроводников над нервной тканью также очевидно.

X512 ★★★★★
()
Ответ на: комментарий от torvn77

в социологии известно

Особенности социологии как науки таковы, что я бы не применял в полной степени тут понятие «известно».

при коэфициэнте рождаемости менее 2.1

После спада и деградации общества будет опять рост. Рождаемость падает в развитом обществе и всегда высокая в неразвитом. Потому что так запрограммировано в голову - перед угрозой исчезновения популяции эту самую голову терять и активно размножаться.

И иначе не может быть запрограммировано. Нас бы тут не было.

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

После спада и деградации общества будет опять рост. Рождаемость падает в развитом обществе и всегда высокая в неразвитом.

Роботы обеспечат развитость общества, так что обществу ничего не помешает деградировать до самого конца.

Именно так я и представляю конец биологического человечества.

X512 ★★★★★
()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от James_Holden

Прочитай вот это:
https://zen.yandex.ru/media/bigpicture/eksperiment-vselennaia25-kak-rai-stal-adom-5a1d1d9586516572531507a0

Как человек который реально жил с крысами и среди крыс я могу указать на методологические ошибки в его эксперименте способствующие полному вымиранию колонии, но общие тенденции будут примерно такими же.

по этому ты прав, но не совсем.

torvn77 ★★★★★
()
Последнее исправление: torvn77 (всего исправлений: 1)
Ответ на: комментарий от X512

человек не будет иметь возможности понимать

Почему тогда вы делаете выводы о том что они решат сделать с человеком? Если нет возможности понимать?

Уже сейчас в развитых странах отрицательный естественный прирост населения.

Ну то есть развитые страны деградируют до неразвитых. А в неразвитых у нас что? Высокая рождаемость. Начинай сначала.

вся работа мозга основана исключительно на уже изученных физических принципах

Это не доказано. Доказать можно только создав образец искусственного мозга который будет думать. Или его компьютерной модели. Пока ничего этого нет. Это фантазии на уровне религии.

Многократное превосходство полупроводников над нервной тканью также очевидно.

Кому очевидно? Как там, мозг кошки уже на суперкомпьютере моделируется?

James_Holden ★★★
()
Ответ на: комментарий от James_Holden

А как гарантировать, что экстремумы будут меняться?

Ломоносов гарантировал: «ежели в одном месте чего-то убудет, то в другом пренепременно прибудет» :)

А если нет?

«Конец света», ждать нового «сотворения мира».

Энергетически выгоднее не размножаться и быть снаружи.

Ага, для неживой природы. А живая природа основана на преобразовании избыточной внешней энергии во внутреннюю информацию.

quickquest ★★★★★
()
Ответ на: комментарий от James_Holden

Деградировать - по определению значит переходить к неразвитому.

Общество роботов и людей в целом будет развитым. Они будут какое то время жить вместе и не дискриминировать друг друга.

X512 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.