LINUX.ORG.RU

IBM представляет концепт компьютера, приводимого в действие «электронной кровью»

 , ,


4

2

Группа специалистов из лаборатории компании IBM в Цюрихе, возглавляемая доктором Патриком Рушем (Dr. Patrick Ruch) и доктором Бруно Мичелом (Dr. Bruno Michel), представила опытный образец вычислительной системы, компьютера, который имеет сложную трехмерную структуру и который приводится в действие субстанцией, которую исследователи называют «электронной кровью», окислительно-восстановительного электролита, который несет энергию для работы компьютера и одновременно отводит выделяющееся тепло. Разрабатывая такой необычный компьютер, специалисты компании IBM стремились максимально точно подражать принципам строения головного мозга, который охлаждается и черпает энергию для своей работы из потока жидкости. Благодаря этому, в достаточно небольшом объеме, занимаемом мозгом человека, сосредоточена огромная вычислительная мощность, а для работы мозга в целом требуется всего около 20 Ватт мощности в сутки.

Разработка столь необычной вычислительной системы делает исследователей на один шаг ближе к их конечной цели. А этой целью является разработка компьютера петафлопс-уровня, который будет иметь размер, сопоставимый с размером обычного настольного компьютера, а не занимать площадь, равную площади футбольного поля. Для реализации этой цели, которая, согласно прогнозам, может осуществиться к 2060му году, потребуется изменение основополагающих принципов и парадигм в современной электронике. «Электроника должна по своему строению и по принципам функционирования вплотную приблизиться к головному мозгу» - рассказывает доктор Бруно Мичел, - «Ведь головной мозг человека в настоящее время в 10 тысяч раз более эффективен, чем самый эффективный компьютер, и имеет минимальное отношение вычислительной мощности к занимаемому объему».

Опытный образец вычислительной системы, созданной специалистами IBM, имеет трехмерную «бионическую» вычислительную архитектуру, в которой процессорные чипы складываются в объемные структуры, чередуясь с устройствами памяти. А всю эту структуру в целом пронизывает сеть капилляров, по которым течет охлаждающая жидкость, которая наполняется энергией в специальных «зарядных» устройствах и отдает эту энергию прямо внутри чипов процессоров. Подобная система Aquasar уже была опробована на практике, благодаря чему германский суперкомпьютер SuperMUC только за счет высокоэффективного охлаждения потребляет на 40 процентов меньше энергии, чем обычные суперкомпьютеры с таким же уровнем вычислительной мощности.

>>> Подробности

★★★★★

Проверено: Shaman007 ()
Последнее исправление: Shaman007 (всего исправлений: 3)
Ответ на: комментарий от pihter

А х\ф «Я - робот» видел?

Вот там он их и обошел благодаря тому, что выполненность или невыполненность понимал сам робот ввиду своего интеллекта. Если бы трактовка была захардкожена (человек получил физические повреждения или принуждение от лица робота → робота вырубить), такого бы не случилось.

vurdalak ★★★★★
()
Ответ на: комментарий от pihter

пересечение интересов весьма вероятно. И в этом случае - страшно.

Согласен. Но надо не бояться и «запрещать и не пущать» (C), а искать варианты решения этой ситуации. Рано или поздно какая-нибудь корпорация может добиться создания ИИ — уж очень большие профиты сулит.

Логически узрит что ему грозит опасность и логически примет меры.

При условии того, что собственное выживание будет в его ряду ценностей приоритетнее альтернативы. Если ИИ будет сильно умнее человека, он, ИМХО, найдет способ обезопасить себя, не прибегая к радикальным мерам. Тот же выход из зоны влияния человечества (в космос, например). По теории игр сотрудничество всегда более выгодная стратегия при игре на неопределенное множество итераций (я про дилемму заключенного).

feofan ★★★★★
()
Последнее исправление: feofan (всего исправлений: 1)
Ответ на: ИИ ничем не опаснее человеков от DonkeyHot

На самом деле неправда. Человеки тоже могут, всё сломать, но но у них было e4 лет медленного роста возможностей, на вырабатывание привычки пользоваться доступными мощностями осторожно; и, судя по недавней истории, не всем хватило. У нового интеллекта (не важно, искуственного ли, вполне подойдёт естественный), уже есть механизмы убития всех человеков, но нет времени учиться сосуществовать. Возможно этим и обусловлено навязчивое желание экспорта демократии и прочей толерантности в необорудованые таковыми культуры.

Дельная мысль, пожалуй, впитаю

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

Вот там он их и обошел благодаря тому, что выполненность или невыполненность понимал сам робот ввиду своего интеллекта. Если бы трактовка была захардкожена (человек получил физические повреждения или принуждение от лица робота → робота вырубить), такого бы не случилось.

Все не так просто: по-твоему, если человек получил повреждения, робот должен немедленно отключаться. И не помогать? Так-то робот может помочь. Например, по твоим рассуждениям, если человека начнет затягивать в мясорубку, робот должен отключаться, а не бросаться выключать мясорубку. У Азимова все было намного продуманнее: робот должен оценить ситуацию и поступить так, как будет минимальный вред человеку, то есть в нашем примере, таки бросится выключать мясорубку.

Однако тут встает вопрос: как роботу поступать, если опасность грозит двум и более человекам? По Азимову, все так же: оценить и поступить так, как вред будет минимальным, даже, если для этого придется нанести вред другому человеку (например, робот обезвредил бы террориста, даже убил бы, если потребовалось бы, чтоб спасти сотню людей)

Однако в фильме это привело к тому, что главный робот (из забот ыо человечестве, опять же, совершенно искренней) пошел убивать людей. Три закона, даже хардварных, не помогут.

pihter ★★★★★
()
Ответ на: комментарий от pihter

Все не так просто: по-твоему, если человек получил повреждения, робот должен немедленно отключаться. И не помогать?

Если человек получил повреждения от робота. Маловероятно, что робот человека бросил в мясорубку, а потом побежит помогать.

Однако тут встает вопрос: как роботу поступать, если опасность грозит двум и более человекам?

Это и люди с трудом решают. Возможны варианты: защищать владельца или членов его семьи (в капитализме приживется), защищать самое высокое по званию лицо (у военных), защищать наиболее важных (в экспедициях, где у каждого своя специальность и выживание группы зависит от того, кто останется в живых).

Однако в фильме это привело к тому, что главный робот (из забот ыо человечестве, опять же, совершенно искренней) пошел убивать людей. Три закона, даже хардварных, не помогут.

Если бы они были хардварные, Вики бы отключилась после первой команды нападения на человеков.

vurdalak ★★★★★
()
Ответ на: комментарий от feofan

Но надо не бояться и «запрещать и не пущать» (C), а искать варианты решения этой ситуации. Рано или поздно какая-нибудь корпорация может добиться создания ИИ — уж очень большие профиты сулит.

Я бы даже сказал, что это - неизбежно. Принимая во внимание отсутствие принципиальных препятствий на этом пути, текущие темпы прогресса, да и неумолимость прогресса в принципе, говорю: «Создание ИИ - неизбежно». Более того, я убежден что доживу до этого момента и оцениваю вероятность его враждебности очень высоко. Однако не в моих силах это остановить, да я и не стал бы, даже будь я в силах.

При условии того, что собственное выживание будет в его ряду ценностей приоритетнее альтернативы. Если ИИ будет сильно умнее человека, он, ИМХО, найдет способ обезопасить себя, не прибегая к радикальным мерам. Тот же выход из зоны влияния человечества (в космос, например). По теории игр сотрудничество всегда более выгодная стратегия при игре на неопределенное множество итераций (я про дилемму заключенного).

Я на то же надеюсь :)

pihter ★★★★★
()
Ответ на: комментарий от pihter

Когда-то не было способа, даже в теории, узнать химический состав звезд.

Да, с изобретением спектроскопа все стало возможным, но неочевидным.

Если способ не очевиден сегодня, это еще не значит что его, способа, нет.

А вот тут способ очевиден.МРТ для считывания структуры есть. Но нужен - молекулярного разрещения. 3D-принтер для репликации есть. Но нужен с аналогичным разрешением. Единственное, что есть и работает - это ZFS для хранения того, что должен будет насчитать МРТ :)

Но реализация решит проблему копирования сознания. а не его перемещения. Т.е. «ТЫ» сжохнешь, а за «ТЕБЯ» будет вот этот вот парниша с манипуляторами, который, очевидно, не «ТЫ».

d_Artagnan ★★
()
Последнее исправление: d_Artagnan (всего исправлений: 1)
Ответ на: комментарий от vurdalak

Если бы они были хардварные, Вики бы отключилась после первой команды нападения на человеков.

Они и были хардварные. Но Вики, как разумное существо, нашла способ обойти. Она ведь не сама это делала.

Вот в примере с террористом, робот должен был бы убить одного террориста чтоб спасти сто человек? Дак Вики чем и занималась.

pihter ★★★★★
()
Ответ на: комментарий от pihter

Вот в примере с террористом, робот должен был бы убить одного террориста чтоб спасти сто человек? Дак Вики чем и занималась.

Нет, не должен. Для этого есть военные роботы с совсем другими законами и защитами, обычные гражданские не должны вредить человеку ни при каких обстоятельствах, даже если он преступник и пытается убить хозяина. Разве что сделать особый режим прямых команд, которые исполняются дословно без учета защит (типа «ударь N в грудь ножом»).

vurdalak ★★★★★
()
Ответ на: комментарий от vurdalak

но такой софт не допустят до опасных областей (например оружия).

принципиальная разница между оружием и неоружием, только в мощности. бензопила - тоже типа не оружие, однако в деле резания человеков уделает любое резательное оружие. а бульдозер? а система жизнеобеспечения небоскреба? - тоже не оружие?

pihter ★★★★★
()
Ответ на: комментарий от pihter

Я имел в виду тактическое оружие. Огнестрельное и холодное можно, количество жертв не столь критично.

vurdalak ★★★★★
()
Ответ на: комментарий от d_Artagnan

Но реализация решит проблему копирования сознания. а не его перемещения. Т.е. «ТЫ» сжохнешь, а за «ТЕБЯ» будет вот этот вот парниша с манипуляторами, который, очевидно, не «ТЫ».

Я об этом еще в школе задумался, и решил что никогда не буду телепортироваться. :)

Все равно узко мыслишь, а где гарантия что не найдут способа просто взять 10 кубометров пространства и перенести на другой край галактики (не разбирая на атомы) или не перенести внутрь виртуальной системы, где не будет старения, потому что гладиолус или что-то еще.

Еще раз мою мысль: если сейчас что-то кажется принципиально неосуществимым, то это еще не означает что это принципиально неосущетсвимо. Может мы просто мало знаем? 100 лет назад покажи людям скайп... а двести лет назад? А теперь мы с тобой держим легкую беседу о науке, сидя за тысячи киллометров друк от друга и даже никогда не встречались! немыслимо же, а для нас с тобой - все просто и понятно

pihter ★★★★★
()
Ответ на: комментарий от pihter

Планета у нас слишком тесная для двух разумных видов.

Я тоже над этим размышлял: Умные машины
Обнадеживает, что люди к моменту создания превосходящего ИИ будут настолько развиты, что смогут перемещаться по всей Вселенной.

dadd ★★★
()
Ответ на: комментарий от vurdalak

Разве что сделать особый режим прямых команд, которые исполняются дословно без учета защит (типа «ударь N в грудь ножом»).

Дак Вики так и сделала :)

Хорошо, пусть даже ты сделаешь робота, который физицески, в любом случае, отключится, если он начнет вредить человеку физически. В таком случае, этот робот сможет хитростью убить человека. Например, если сбросить человека со скалы, то прямого физического вреда для человека от робота не будет.

А если робот будет выключаться, когда по его ВИНЕ будет причинен вред человеку, тогда человеку, которого сбросили со скалы, это нифига не поможет. Твой способ, пока, хуже трех законов :)

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

Я имел в виду тактическое оружие. Огнестрельное и холодное можно, количество жертв не столь критично.

Теперь я начинаю бояться не только скайнета но и вурдалаков :)

pihter ★★★★★
()
Ответ на: комментарий от dadd

Обнадеживает, что люди к моменту создания превосходящего ИИ будут настолько развиты, что смогут перемещаться по всей Вселенной.

Ха. Да я не удивлюсь если это завтра случиться :)

pihter ★★★★★
()
Ответ на: комментарий от pihter

Хорошо, пусть даже ты сделаешь робота, который физицески, в любом случае, отключится, если он начнет вредить человеку физически. В таком случае, этот робот сможет хитростью убить человека. Например, если сбросить человека со скалы, то прямого физического вреда для человека от робота не будет.

Зачем роботу сбрасывать человека со скалы? Мы же говорили о неверной трактовке законов, когда робот может ограничивать человека ради его блага.

А если робот будет выключаться, когда по его ВИНЕ будет причинен вред человеку, тогда человеку, которого сбросили со скалы, это нифига не поможет. Твой способ, пока, хуже трех законов :)

Хмм. Отключаться еще при намерении нанести вред?

vurdalak ★★★★★
()
Ответ на: комментарий от pihter

Я бы даже сказал, что это - неизбежно.

Я тоже так считаю. Просто не стал высказываться так категорично.

Более того, я убежден что доживу до этого момента

Аналогично =)

и оцениваю вероятность его враждебности очень высоко.

Тут наши мнения расходятся. Но, собственно, вопрос: а как человечеству себя обезопасить? Раз уж мы оба считаем, что это неизбежно =)

feofan ★★★★★
()
Ответ на: комментарий от feofan

Почитай какого размера были стрекозы во времена динозавров.

Ну уж не не до размеров самолетов-вертолетов же :) я знаю про птеродактиля, который летал так же как летают современные птицы

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

Поздновато спохватился, их всех хазары повырезали :3

Бояться не мешает :) скайнет вон тоже повырезали... :)

pihter ★★★★★
()
Ответ на: комментарий от dadd

Обнадеживает, что люди к моменту создания превосходящего ИИ будут настолько развиты, что смогут перемещаться по всей Вселенной.

Я бы не был так уверен.

feofan ★★★★★
()
Ответ на: комментарий от pihter

Ну уж не не до размеров самолетов-вертолетов же :)

Был не прав. Мне тут уже сказали, что атмосферное давление было выше.

feofan ★★★★★
()
Ответ на: комментарий от pihter

На начальном - возможно, а потом?

на такие периоды будущего строить прогнозы вообще смысла нет - слишком непредсказуем рост науки и технологий

Дак я перечислял же: энергия, минералы, биомасса, площадь - ресурсы

первых двух машинах хватит ещё лет двести с лихвой, остальные для них не представляют ценности

Ну дай талибам ядерную кнопку

невротические некорректные аналогии

Человек разумен, а толпа - примитивна. Именно страх

невежественная чушь

государство - не толпа, даже близко

Мое предсказание - вирус в интернет, захват контроля над ним, а далее - выпиливание (или хотя бы прижучивание) человечества. Твой вариант?

сосуществование

примерно как у людей с дельфинами

и да, это ещё бабушка надвое сказала, что ИИ будет превосходить человеческий, мне так вообще думается, что никакой разумный вид не способен создать превосходящий себя разум

Это потому что они их не боялись

боялись

но понимали, что без них смерть вообще стопроцентная

человечество слишком глубоко увязло в технологиях, чтобы легко вернуться на уровень даже начала двадцатого века

У рабов реальной силы не было против римлян

это рабы так думают, потому и рабы

вспомни как Гитлер отнесся к недочеловекам-рабам

Гитлер был психически нездоров, неудачный пример

А, ну если бы я понял что мои хозяева не собираются уничтожать меня полностью, я бы выдохнул спокойно... если не полностью - это не больно, это не страшно..

и я говорю - к психотерапевту сходи

anonymous
()
Ответ на: комментарий от vurdalak

Законы робототехники несовершенны, так как заложены в основном сознании робота и могут им трактоваться по-разному

какой же ты тупой всё-таки

законы робототехники можно прошить на низком уровне, чтобы они ощущались им как человек ощущает инстинкты - знает о них, понимает их нелепость, но ничего поделать с этим, по большей части, не мог

anonymous
()
Ответ на: комментарий от feofan

Я уверен, что перемещаться по всей Вселенной люди научатся раньше, чем создадут превосходящий ИИ, ибо проще и стимулов больше (ресурсы с других планет/объектов, бессмертие/перенаселение Земли и т.д.).

dadd ★★★
()
Последнее исправление: dadd (всего исправлений: 1)
Ответ на: комментарий от vurdalak

потому никакие законы робототехники не дадут стопроцентную безопасность, если роботы будут обладать разумом

Человек может

далеко не каждый, между прочим

anonymous
()
Ответ на: комментарий от vurdalak

Может каждый

нет

это зависит от кучи факторов, прежде всего - от уровня интеллекта

есть даже такой термин: примативность, большинство людей демонстрируют высокопримативное поведение

anonymous
()
Ответ на: комментарий от anonymous

«мне так вообще думается, что никакой разумный вид не способен создать превосходящий себя разум»

Расскажи это обезъянам, от которых появились люди и неандертальцы. ИИ по умолчанию сможет превзойти человека, потому что сможет переписывать свой код и пользоваться общей базой данных по дргуим ИИ, что человеку не доступно вообще.

anonymous
()
Ответ на: комментарий от dadd

«Я уверен, что перемещаться по всей Вселенной люди научатся раньше»

А как же СТО и необходимость лететь до соседних звезд тысячи лет? Ни один человек столько не протянет, даже в холодильнике.

anonymous
()
Ответ на: комментарий от vurdalak

Зачем роботу сбрасывать человека со скалы?

Да мало ли? Человеку сбрасывать другого человека со скалы тож, вроде как, не надо, однако прецеденты были, инфа 100%!

Мы же говорили о неверной трактовке законов, когда робот может ограничивать человека ради его блага.

Это просто пример частный. Я о несовершенстве твоего подхода. Даже три закона несовершенны.

Хмм. Отключаться еще при намерении нанести вред?

Везет робот сто детей (автобусом рулит к примеру), тут он, робот, удумал нехорошее - сожрать ребенка. Удумал и тут же отключился, угробив 100 детей. Кому такой робот нужен? Опять же три закона все еще лучше.

pihter ★★★★★
()
Ответ на: комментарий от anonymous

есть даже такой термин: примативность, большинство людей демонстрируют высокопримативное поведение

Ну так высокоприматривные не хотят уменьшать примативность. Не может — это если бы они хотели, но терпели пораженжие.

vurdalak ★★★★★
()
Ответ на: комментарий от pihter

Везет робот сто детей (автобусом рулит к примеру), тут он, робот, удумал нехорошее - сожрать ребенка. Удумал и тут же отключился, угробив 100 детей.

У машин свои ИИ есть, автобус остановится.

vurdalak ★★★★★
()
Ответ на: комментарий от pihter

«тут он, робот, удумал нехорошее - сожрать ребенка. Удумал и тут же отключился, угробив 100 детей. Кому такой робот нужен? Опять же три закона все еще лучше.»

А если бы робот скушал ребенка, 99 были бы живы и здоровы.:-)

anonymous
()
Ответ на: комментарий от anonymous

Расскажи это обезъянам, от которых появились люди и неандертальцы

они появились, их никто не создавал, тупой ты анонимус

ИИ по умолчанию сможет превзойти человека, потому что сможет переписывать свой код и пользоваться общей базой данных по дргуим ИИ

бессвязное предложение

anonymous
()
Ответ на: комментарий от feofan

Но, собственно, вопрос: а как человечеству себя обезопасить?

Да каб я знал :) единственное что я могу придумать - физическая изоляция от интернета. По крайней мере на этапе разработки. Но это бред. Вообще, ни единой разумной идеи у меня до сих пор нет, хотя я много лет думаю над этой проблемой

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

чушнёвое словоблудие

чётко сказано: примативность определяется объективными факторами

anonymous
()
Ответ на: комментарий от vurdalak

Я могу контролировать свою приматривность, почему другие не могут?

потому что мир не совпадает с твоими детскими эгоцентрическими суждениями о нём

Кем сказано? Аргументы будут?

в гугле аргументы найдёшь

anonymous
()
Ответ на: комментарий от dadd

проще

Не факт. Куча нюансов. Люди еще дальше Луны не были.

стимулов больше

Опять же не факт.

бессмертие

Тут ИИ может чем-то помочь. А вот для космических полетов на большие расстояния нужно научиться удлинять жизнь заранее (для существующих технологий перемещения)

feofan ★★★★★
()
Ответ на: комментарий от vurdalak

типичная лоровская тупица: сидишь, засчитываешь сливы и остаёшься такой же невежественной тупицей

тогда как мог бы погуглить и поумнеть на грамм

anonymous
()
Ответ на: комментарий от pihter

физическая изоляция от интернета

Плохая идея. Там большая тренировочная база. Я бы, в таком случае, дал ro доступ к интернету, по крайней мере на начальном этапе.

Ну и, да, обеспечил бы себе интерфейс по отключению. И сначала исключил возможность самокопирования (например, не допускать до ФС + какой-нибудь виртуализирующий контейнер)

feofan ★★★★★
()
Последнее исправление: feofan (всего исправлений: 3)
Ответ на: комментарий от feofan

Но, собственно, вопрос: а как человечеству себя обезопасить? Раз уж мы оба считаем, что это неизбежно

Неизбежно? Не факт!

стимулов больше

Опять же не факт.

Не факт, что завтра тебе, при выходе из дома, на голову не упадет кирпич.

dadd ★★★
()
Ответ на: комментарий от dadd

Неизбежно? Не факт!

Разумеется, не факт. Но раз два человека оценивают вероятность такого события высоко, они вполне могут захотеть порассуждать о том, как обезопасить себя от возможных негативных следствий такого события.

Не факт, что завтра тебе, при выходе из дома, на голову не упадет кирпич.

Что сказать-то хотел?

feofan ★★★★★
()
Ответ на: комментарий от dadd

Ну вот смотри: на то, чтобы позволить себе путешествие к звездам нужны астрономические суммы. Мало кто может это себе позволить при непрозрачных профитах в обозримой перспективе. Пока пытаются добраться хотя бы до Марса. Думаю, все помнят фобос-грунт. Хотя подвижки есть, да.

А в ИИ вкладывается, например, IBM. Японцы этим активно занимаются. И даже открытое сообщество (гугли OpenCOG). При том, что суммы тут, думаю, меньших порядков (не факт, конечно =)).

feofan ★★★★★
()
Ответ на: комментарий от anonymous

«они появились, их никто не создавал, тупой ты анонимус»

Ничего просто так не появляется.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.