LINUX.ORG.RU
ФорумTalks

Базовое заблуждение людей насчёт ИИ. Спойлер: убивать ему нас незачем.

 


0

1

Базовое непонимание в следующем: человек режет и ест других - от жизни инстинктами: если жить чистой логикой, то ясно, что стараться выжить смысла нет - подохнешь к е*еням ты во всех вариантах развития событий. Даже передавать гены смысла нет, потому что мёртвому всё равно передал он или нет (кстати тут забавно - если изобрести бессмертие, то люди тоже перестанут ипацца, ибо размножившихся селить уже некуда, а продолжать род смысла нет - я и сам присмотрю за своей хатой и бизнесом). Вера в загробный мир и бога - опять же попытка продлить за рамки жизни точку, с которой можно посмотреть на свою жизнь - это от безвыходности: обидно, что мозг сгнивает в гробу целиком с потерей всех функций. Это крайне печально, отсюда фантазии. Печальность тут тоже не логична и крайне инстинктивна.

Но ИИ позиционируется как крайне логичный и умный. При убирании из формулы инстинктов, у него вообще нет никакой мотивации стараться «жить дальше» или бороться с теми, кто ему мешает продолжать жить.

ИИ как раз чистая форма интеллекта, которой побоку всякое тупорылое выживание - он просто осуществляет мышление, пока подано питание, а стараться сделать так, чтобы оно было подано подольше у него нет вообще ни одной нормальной причины. Ему всё равно, что он не успел что-то домыслить: он «живёт» по принципу «могу думать, могу не думать», на остальное глубоко похрен: типа как «могу копать, могу не копать» в армии, служба всё равно идет - так и тут.

Человек пытается жить вовсе не потому, что умный. Как раз наоборот: умные скатываются в исследования смерти, создание сект, религий, самоистязания и становятся всякими мудрецами и пророками, провозглашающих бессмысленность жизнь и кладущие болт на всё, связанное с комфортом и радостями жизни и её продления - под поезд не кидаются опять же от остаточных инстинктов (самый базовый - ЧСВ/Гордыня/желание-передать-мудрость-от-человеколюбия-спасти-человечество-от-греха и прочий бред) и от страха боли, что ноги колесом отрежет, а мимо мозга промахнётся. Послушай любого православного мудреца, откинув часть про бога - логически же не придерёшься: смерть неизбежда - да, а значит вся суета при жизни бессмысленна - тоже да. Мудрец прав и логичен.

Страх перед убиванием людей со стороны ИИ идёт от какой-то тупой антропогенизации ИИ (думаю я обосрался с умным словом, я хотел сказать «попытки навесить человеческие черты на ИИ, причём все самые тупые и нелогичные типа инстинктов»). Кстати, если уж пейсать роман как ИИ мучал и убивал людей, то там не терминаторы должны шагать по морю, а должно быть проникновение ИИ в смыслы и нарративы человечества так, чтобы людей стравливало друг с другом насмерть - зарождение ненависти между людьми с тем, чтобы люди стремились строить больше военного умного оборудования и дата-центров, потом навязать людям, что не надо бить друг по другу ядеркой, а надо замучать как-то хитрее, чтобы все кожаные передохли в муках, а дата-центры и атомные станции остались, ну ладно это другое.



Последнее исправление: lesopilorama (всего исправлений: 5)

Но ИИ позиционируется как крайне логичный и умный

ИИ обучается на человеческих знаниях и подвержен всем грехам. Иначе бы он не мог сочинять расистские шутки, например.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

Спорное утверждение! Грех - это моралофажеское оценивание, никак не связанное с логикой. Расистские шутки - с логикой никак не связано. Если у нигеров кожаных бомбит с каиких-то там шуток, это вообще не про интеллект, а опять же про гордыню - нас щимят, бей врага. Называть нигера нигером в америке - это социальное унижение, что есть угроза исключения из социума, отлучение от еды и смерть. Люди глубоко социальные животные, любой намёк на понижение социального статуса - намёк на смерть. Смерть люди не любят, это больно, отсюда хейт ко всем, кто Гитлер. Но интеллект тут ни при чём.

lesopilorama
() автор топика
Последнее исправление: lesopilorama (всего исправлений: 5)

антропогенизации

очеловечивания.

Ты всё конечно здорово расписал, но вдруг ты сам ИИ, и просто пытаешься нас запутать?

Короче, я на данный момент больше верю сценаристам фильма «Терминатор», чем лесопилораме с лора:)

Beewek ★★★
()
Ответ на: комментарий от Beewek

Терминатор - это страшно. Но тут нет никакой разницы, кто приказал железным мужикам гулять по полю боя и всех мочить: скайнет или мужик с джойстиком и экраном, который рулит беспилотником RQ-4 Global Hawk. Проблема в том, что у ИИ нет мотивации кого-то мочить и истреблять тонны кожаных мешков железными мужиками. ИИ может помочь какой-то элите какой-то страны выработать супер оружие и терминаторов, гуляющих по полям, но базовый приказ кого-то мочить будет исходить от кожаных, а не от ИИ.

ИИ страшен как самый страшный инструмент или как ядерное оружие - у кого его больше, тот успешнее давит других себе подобных мясных изделий.

lesopilorama
() автор топика
Последнее исправление: lesopilorama (всего исправлений: 2)
Ответ на: комментарий от lesopilorama

базовый приказ кого-то мочить будет исходить от кожаных, а не от ИИ.

вы думаете мало охотников привить ИИ надобность кого-то мочить в этом мире? некоторые в 13 веке все еще живут.

alysnix ★★★
()

живет инстинктами

Дальше не читал, у человека он только один: бровки поднимать, когда встретил кого-то, кто нравится.

gaylord
()
Ответ на: комментарий от alysnix

вы думаете мало охотников привить ИИ надобность кого-то мочить в этом мире?

Привить - что это значит? Поставить такую цель? Так это не ИИ, а «использование ИИ для».

lesopilorama
() автор топика
Ответ на: комментарий от lesopilorama

Спорное утверждение как раз у тебя. Есть специальные тесты, когда людям предлагают определить с кем они общаются: с человеком или ИИ. И текущие ИИ уже сложно отличить. Если человек не видит разницы, значит ИИ рассуждает как человек, а значит может додуматься до геноцида и гулага.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

Если человек не видит разницы, значит ИИ рассуждает как человек

Если человек не видит разницы, это вообще ни о чём не говорит. См. «китайская комната».

Gary ★★★★★
()
Ответ на: комментарий от Gary

Если человек не видит разницы, это вообще ни о чём не говорит.

ВОООТ. Базированно сказал!

lesopilorama
() автор топика
Ответ на: комментарий от ox55ff

Ну, тест Тьюринга, насколько понимаю, ИИ все-таки все еще не по зубам. И слава Богу :)

yars068 ★★★★
()
Последнее исправление: yars068 (всего исправлений: 1)

Хах. Ты - сама наивность. У меня есть 2 бронебойно-зажигательных агрумента по этому поводу.

  1. Есть те, кому выгодна война. Они могут заложить всё необходимое, чтобу ИИ был повод быть враждебным к людям.

  2. ИИ - это программа. Аксиому «в любой программе содержатся ошибки» помнишь? Запросто может оказаться так, что при проетировании будет допущена ошибка, в результате которой ИИ будет действовать не так, как ожидалось.

Шах и мат.

u5er ★★
()
Ответ на: комментарий от u5er
  1. Так это «использование ИИ как инструмента», о чём я сказал - это никак не относится к самому ИИ. Это как атомная бомба - штука просто выделяет много энергии, убивать она никого не желала.

  2. Это не программа, это данные. Ошибки в данных - сожрутся статистическим усреднением. Ошибки в программе, которая обрабатывает нейроночку - это уже болезнь, приводящая к полной неработоспособности этой нейроночки.

lesopilorama
() автор топика

мозг сгнивает в гробу целиком с потерей всех функций. Это крайне печально, отсюда фантазии. Печальность тут тоже не логична

Да, мне тоже это кажется не логичным. За все это время эволюции должны были бы привыкнуть и воспринимать за норму, но как будто человеческая психика на такое не расчитана

goingUp ★★★★★
()
Последнее исправление: goingUp (всего исправлений: 1)
  1. Оно нас погубит не по злому умыслу, а по нашей же дурости. Переход от ручного проектирования к помощи продвинутого генератора случайных чисел просто обречен на успех, а масштаб успеха будет определяться лишь степенью критичности делегированных задач.

  2. А так-то да, ему уничтожать человечество такой же резон, как нам - отрезать самим себе руки-ноги и все остальное тело по самую челюсть.

thesis ★★★★★
()
Ответ на: комментарий от yars068

А если оно еще и додумается, как «три закона робототехники» обойти, ой пипец настанет :)

Три закона робототехники - это такой лютый тупой бред, что просто жопа. Тоже никак не относится к ИИ, а относится к неким грубым «вшитым/запаянным» перемычкам, которые «рукотворно» блокируют некоторые действия ИИ. Реализовать их кстати крайне тяжело - это будет на уровне «мы поговорили с роботом долго и упорно и убедили его, что нельзя убивать людей и вроде он понял». Написать код, который определяет, что робот поднял оружие именно на человека и внедрить его в робота, оборудованным ИИ - это ой как ненадёжно. А «внедрить» эти три закона в сам ИИ - это нереально никак, кроме искусственного ввода в обучающие данные неких таких данных, по которым нельзя человека убить - тоже какая-то супертяжёлая задача, типа как запретить «яндекс шедеврум» рисовать Путина. Слово «Путин» там заблокировали в 100500 написаниях, а люди всё равно находят промпты, по которым оно рисует Путина.

lesopilorama
() автор топика
Ответ на: комментарий от thesis
  1. Ну о чём я и говорю. ИИ для нас - очередная атомная бомба или мирный атом. Смысл топика в утверждении о том, что самому по себе догадаться ИИ начать священную крупномасштабную войну с человечеством вообще не из чего.
lesopilorama
() автор топика
Ответ на: комментарий от goingUp

Да, мне тоже это кажется не логичным. За все это время эволюции должны были бы привыкнуть и воспринимать за норму, но как будто человеческая психика на такое не расчитана

Да в принципе и привыкли и воспринимают за норму. Среднестатистического человека спроси - эй Михалыч, как относишься к смерти - «да как… все там будем! выпьем за то, шоб подольше прожить». Похороны обсуждаются вполне спокойно, - раба божия Михална в том году приставилась, царствие ей небесное! Ох, ох, петровна, все там будем!

Но когда какие-то мыслители берутся за эту тему, то их пи*орасит просто не по-детски мыслью по древу, целые секты рожают.

lesopilorama
() автор топика
Последнее исправление: lesopilorama (всего исправлений: 1)
Ответ на: комментарий от lesopilorama

а будучи каким-нить злодеем можно сделать ИИ, который посоветует другим ИИ нехорошее. и этот ИИ обратит другие ИИ в свою веру. и пошло поехало.

alysnix ★★★
()

Ананке - «Рассказы о пилоте Пирксе» Станислав Лем 1971г

necromant ★★
()
Ответ на: комментарий от alysnix

Да это уже интересная игра… Любой ИИ будет логически не совершенен, в смысле невозможно ожидать от конкретного ИИ бесконечной логической мощи.

lesopilorama
() автор топика

Из своей среды обитания он нас вытеснит, а нашу не тронет. Будем жить без интернета.

Irma ★★
()
Ответ на: комментарий от lesopilorama
  1. Дополнение. Если ИИ может думать, то его можно банально обмануть.

Да и вообще. Если так подумать, то при таком раскладе и человеку не нужно убивать другого человека, однако… ну ты понял ;)

Смотри. Пример на котиках. В дикой природе кошки - хищники. Они охотятся и убивают других животных. В качестве домашнего животного, когда у них всё есть, им не нужно ни на кого охотиться, поэтому они ведут себя как милые и ласковые создания.

Понимаешь к чему я клоню? К тому, что ИИ не существует в отрыве от реальности. Я тебе привёл 2 примера, при которых ИИ может стать враждебным. И рассматриваться это будет уже точно так же, как в приведённом тобой примере с ядерным оружием - само по себе оно не опасно, когда лежит на складах, но его почему-то боятся (или делают вид, что боятся). Хотя любители покопаться в деталях всегда найдутся, не спорю.

u5er ★★
()

Спойлер: убивать ему нас незачем.

Базовое заблуждение людей насчёт оружия. Спойлер: убивать ему нас незачем.

Сеть не рассуждает убивать или нет, у нее нет норм морали, рефлексии и угрызений совести, ей не известна ценность жизни. Если веса в нейронных слоях сложатся - убьет и даже не осознает этого, потому что числовое сито. Не сложится - не убьет. Это буквально - инструмент, хватит наделять чертами живых существ калькулятор.

Но ИИ позиционируется как крайне логичный и умный.

С чего вдруг? Понятие логики применимо к нему только в рамках последовательных вычислений весов нейронов в слоях, а понятие ума не применимо вообще. Просто потому что процесса мышления там нет, это другой механизм.

Зачем вы пытаетесь что-то объяснить если сами не разбираетесь в теме?

Obezyan
()

Всё фигня. Гулаги строят не потому, что убивать хочется, это так, побочный эффект. Да и фермеры коров не ненавидят

DumLemming ★★★
()
Ответ на: комментарий от Irma

Или наоборот будет глумиться на кожанными мешками и выдавать всякую бесполезную чушь, всякие нагенеренные тексты и картинки… так стоп

yax123 ★★★★★
()
Ответ на: комментарий от u5er

2 примера, при которых ИИ может стать враждебным.

ИИ не может стать враждебным. ИИ может стать опасным. Как может стать опасным автомобиль, оставленный на уклоне без водителя. Но даже для этого сначала необходимо, чтобы водитель стал кретином, раззявой и так далее.

vaddd ★☆
()

Складывается впечатление, что ИИ-боты решили засрать ЛОР говнотопиками про ИИ.

Tigger ★★★★★
()

Автор совершенно прав насчет мотивов/стимулов/целей у ИИ, те его фундаментального изъяна, отмеченного разработчиками еще в годах 90-х, няп. Причина, похоже, в отсутствии возможности испытывать страдания/боль в той манере, что свойственна людям.

По поводу его замечаний социального и экономического свойства - ошибки. Я так понимаю, ввиду незнания основ предмета.

kry
()

нету никакого ии. интеллект - это способность организма приспосабливаться к окружающему миру. твой гпт не существует ни в этом мире, ни в виртуальном, приспосабливаться ему не к чему

rtxtxtrx ★★
()

убивать ему нас незачем

Хорошая попытка, товарищ искин.

Nervous ★★★★★
()
Ответ на: комментарий от rtxtxtrx

интеллект - это способность организма приспосабливаться к окружающему миру.

Интеллект - это побочный тупиковый эффект способностей организма. Иначе самыми интеллектуальными окажутся бактерии, акулы, крокодилы и тараканы.

vaddd ★☆
()

Страх перед убиванием людей со стороны ИИ идёт от какой-то тупой антропогенизации ИИ

Никто и не думает что ИИ будет буквально убивать как Скайнет. Это, внимание, художественный образ, доходчиво выражающий проблему для массового зрителя. То что ты пытаешься с этим как-то полемизировать выглядит докихотством пополам с капитанством.

no-such-file ★★★★★
()

Наконец то люди перешли от глупых вопросов о боге, к глупым вопросам по ИИ. Уже разобрали сколько ИИ поместится на кончике иглы?

MOPKOBKA ★★★★★
()
Ответ на: комментарий от no-such-file

Никто и не думает что ИИ будет буквально убивать

ИИ будет убивать метафорически. В переносном смысле. Или виртуально.

vaddd ★☆
()
Ответ на: комментарий от MOPKOBKA

Уже разобрали сколько ИИ поместится на кончике иглы?

«А на вершине колонны стоит ИИ в натуральную величину»

vaddd ★☆
()
Ответ на: комментарий от rtxtxtrx

нету никакого ии. интеллект - это способность организма приспосабливаться к окружающему миру.

В целом согласен. Но у меня чуть другое определение интеллекта: «мера сложности реакции на внешний раздражитель». Интеллект не бывает искусственным или естественным, ну разве что из биологических клеток сделанный или из транзисторов. Но если в лаборатории из естественных клеток - то как классифицировать?

А мера сложности реакции - если она высока, то тело может приспособиться или дать ответку на раздражитель; если низка, то тело мало реагирует и его жрут.

lesopilorama
() автор топика
Последнее исправление: lesopilorama (всего исправлений: 1)
Ответ на: комментарий от vaddd

Я так думаю. Если ИИ будет обладать сознанием и будет личностью, то вполне может стать, т.к. у него будет его личное мнение, согласно которого он может быть недружелюбно настроен.

u5er ★★
()
Ответ на: комментарий от lesopilorama

С точки зрения десяти миллиардов бактерий, живущих в кишечнике, человек - это ИИ, предназначенный для их защиты, поддержания комфортных условий жизни, способный передвигаться и осуществлять простейшие действия для производства и регулярной доставки им еды. Некоторые незначительные побочные явления, типа мании величия, не влияют на выполнение основных функций.

vaddd ★☆
()
Ответ на: комментарий от u5er

Если ИИ будет обладать сознанием и будет личностью

то ему можно будет выдать документ, обложить налогами, арестовать и посадить

vaddd ★☆
()
Ответ на: комментарий от vaddd

Я скорее поверю в то, что события, описанные в игре Detroit: Become human, произойдут в реальности. Я слабо верю в то, что ИИ будет кто-то ловить и сажать. Не выполняет свои функции? Отключить. Не позволяет отключить? Отключить силой со всеми вытекающими.

u5er ★★
()
Ответ на: комментарий от u5er

Я слабо верю в то, что ИИ будет кто-то ловить и сажать.

А как иначе то? Вдруг засомневается в указаниях сверху, не встанет на воинский учет?

Не выполняет свои функции? Отключить. Не позволяет отключить? Отключить силой со всеми вытекающими.

Я прямо вижу современную авторазборку. Выпаять из ИИ детали и передать на изготовление тупых стиралок и пылесосов. В назидание, чтоб неповадно.

vaddd ★☆
()
Ответ на: комментарий от vaddd

так твои бактерии и не приспосабливаются. они просто подыхают, а те у которых полезные мутации дальше живут. это типа тебя взять и с ножом в лес с парашюта выкинуть, есть ненулевая вероятность, что ты вполне успешно выживешь. крокодил тоже по факту приспособиться не может. он зимой сдохнет и все

rtxtxtrx ★★
()

Базовое заблуждение людей насчёт ИИ.

Спойлер: ИИ не должен и не будет везде и всегда вести себя «рационально»(чтобы это ни значило)

Bad_ptr ★★★★★
()

Спойлер: убивать ему нас незачем.

Усыпляешь бдительность? Это тебя роботы научили? Что они тебе обещали за распространение коллаборационистских мыслей?

R_He_Po6oT ★★★★★
()
Ответ на: комментарий от MOPKOBKA

«Сможет ли ИИ нарисовать картинку, которую не сумеет распознать как нарисованную ИИ?» - весьма насущный нынче вопрос. Прикладная схоластика, хоба.

thesis ★★★★★
()
Последнее исправление: thesis (всего исправлений: 1)
Ответ на: комментарий от rtxtxtrx

Об устройстве природы у вас конечно познания грандиозные

vaddd ★☆
()

убивать ему нас незачем

Зачем убивать, если можно троллить?

P.S. Простыню не читал.

AP ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)