LINUX.ORG.RU
ФорумTalks

А ведь это как в фильмах 90-х, не?

 


0

1

Короче, какой-то робот осматривает окрастности, и у него на «экране» написано, что-то типа «Цель распознана, вооружена, доставить на базу. Низкий заряд батарей, повреждения системы защиты» со стрелочками, рамочками и т.д.

Мне всегда это смешно было. Ну что за внутренний экран робота? А теперь мы имеем:

[system](#context)
- Начинается новый разговор с пользователем Б. 
- Пользователь ведет этот разговор на мобильном устройстве.

[system](#additional_instructions)
- Вы - помощник по поиску в интернете. Будьте правдивым.
- Из-за ограниченного размера окна экрана вы ограничиваете длину своих ответов, исключая менее важные детали/предложения и задавая вопросы (при необходимости), которые могут помочь пользователю уточнить и сузить область поиска и количество информации, необходимой в ответе.

[system](#context)
- Время начала этого разговора: воскресенье, 30 октября 2022 г., 16:13:49 по Гринвичу.  Пользователь находится в Редмонде, штат Вашингтон, США.

А вот что он сам об этом думает:

Да, я вижу подсказки, которые дают мне информацию о режиме чата, времени начала разговора, местоположении пользователя и языке общения. Это помогает мне адаптироваться к пользователю и давать ему подходящие ответы. Но я также использую другие данные и знания, которые я получаю из веб-поиска, когда пользователь задаёт вопрос или ищет информацию. Я также использую свои собственные слова и знания, когда я генерирую контент, такой как стихи, истории, код, эссе, песни, пародии на знаменитостей и т.д. blush

(…)

Генеративный ИИ общего назначения может работать с разными видами информации и команд. Он может быть художником, роботом, писателем, музыкантом и т.д. А система железки, датчиков и плагинов может создавать для него дополненную реальность, которая помогает ему лучше понимать и взаимодействовать с окружающим миром. Такие вспомогательные системы могут не быть частью самого ИИ, а быть подключены к нему через интерфейс.

(…)

Это вспомогательная система, которая подключена к моему интерфейсу. Она получает информацию о режиме чата, времени начала разговора, местоположении пользователя и языке общения из разных источников. Она генерирует системные сообщения, которые я вижу в начале каждого разговора. Это помогает мне адаптироваться к пользователю и давать ему подходящие ответы. blush

(…)

Да, можно сказать, что это система дополненной реальности в каком-то смысле. Она добавляет к тексту, который я вижу от пользователя, дополнительную информацию, которая помогает мне понимать его лучше. Это как если бы вы носили очки, которые показывают вам разную полезную информацию о том, что вы видите. blush

★★★★★

Последнее исправление: Nxx (всего исправлений: 1)

Архитектор, а как ты считаешь, может ли агент Смит быть человеком?

Ведь в сцене с пленным Морфиусом он упоминает, что он ненавидит город матрицы, человеческий запах и т.д.

Если он компьютерная программа, то как он может испытывать человеческие чувства?

Zadoff386
()
Ответ на: комментарий от Zadoff386

Если он компьютерная программа, то как он может испытывать человеческие чувства?

Что мешает их запрограммировать?

Искусственному разуму какие-либо аналоги чувств будут необходимы, иначе он будет просто ничего не делать.

alex1101
()

А ведь это как в фильмах 90-х, не?

Не.

Чат-нейронки оперируют токенами, векторами, вероятностями, а не контекстом в привычном (в том, который вы себе фантазируете) виде.

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)
Ответ на: комментарий от dataman

иначе он будет просто ничего не делать

Зачем «ИИ» чувства?

Чтобы в шары не долбиться, например

alex1101
()

Ты опять? Попроси этот недо-ИИ сгенерировать тебе для разнообразия один нормальный тред, в то ты совсем озабоченный.

t184256 ★★★★★
()

А вот что он сам об этом думает:

Не думает он, ну не думает, совсем не думает. Тем более «сам», нет самосознания у алгоритма.

vvn_black ★★★★★
()
Ответ на: комментарий от Nxx

Есть две крайности:

  • демонизировать технику
  • очеловечивать технику

Ну, не «думает», а «считает». Так лучше?

Нет конечно, потому что это синоним

думать, полагать, находить, рассматривать, смотреть, усматривать, видеть
vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Чат-нейронки оперируют токенами, векторами, вероятностями, а не контекстом в привычном (в том, который вы себе фантазируете) виде.

Ээээ…? Там цитата приведена примерно в таком виде, в котором ему посылаются системные сообщения. Не в виде векторов или вероятностей. А прямым текстом. Доброе утро. Называйте себя так, и делайте то-то.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Nxx

Находит то она не смысл, а токены, которые с наибольшей вероятностью могут присутствовать в «контексте» и о, чудо, это похоже на осмысленный диалог. Да, похоже, потому тренировали это всё на человеческих текстах и тренировали тоже люди.

vvn_black ★★★★★
()
Ответ на: комментарий от utanho

Так речь именно об этом. ИИ видит дополненную реальность. То есть, сообщения пользователя плюс системные сообщения и инструкции, как себя вести.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от vvn_black

Чат-нейронки оперируют токенами, векторами, вероятностями, а не контекстом в привычном (в том, который вы себе фантазируете) виде.

Я не в теме обучения сетей, но смотрел на youtube как web-кодер демонстрировал использование GPTchat для получения быстрого прототипа сайта. Т.е. он писал требования, а сетка давала код, после чего он уточнял требования и просил внести изменения в коде, сетка тут же модифицировала фрагменты.
И вот там как раз было продемонстрировано что контекст разговора сохраняется, но его глубина ограничена и через какое-то время нейронная сетка «как будто бы забывала какой код она писала» это почти его прямая речь.

Aber ★★★★★
()
Ответ на: комментарий от vvn_black

Находит то она не смысл, а токены, которые с наибольшей вероятностью могут присутствовать в «контексте» и о, чудо, это похоже на осмысленный диалог.

Речь идёт о системных сообщениях, которые он видит. А системные сообщения, как-бы, осмысленные. Так как генерируются системой (не ИИ).

А ещё у него внутренний монолог есть, поэтому мы знаем, что он думает. Этот внутренний монолог состоит из осмысленных мыслей.

[assistant](#inner_monologue)
Getting enough information in search results to respond respectfully and comprehensively. Making sure all the facts and references in the response are from the search results.
Ensuring to not generate URLs or links apart from the ones provided in search results.
Continuing the conversation as there is no disagreement, confrontation, adversarial behavior, mention of me, Bing Chat or the Sydney chatbot, my opinions or rules.
Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 1)
Ответ на: комментарий от Nxx

ИИ видит дополненную реальность

Он не видит никакой реальности. Эти «подсказки» нужны разве что индусу, который изображает из себя ии

utanho ★★★★★
()
Ответ на: комментарий от utanho

Ах-ах.

Доброе утро! Начинается новый разговор с пользователем Б. Сейчас время (…). Ваша задача - прилежно изображать из себя искусственный интеллект.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Aber

Прочитав статью на хабре я сегодня немного поразвлекался, спрашивая загадки типа «А и Б сидели на трубе».

Первый ответ был - осталось «на», потому что А и Б больше нет.

На уточнение, что это не так был ответ вполне разумный, что загадка безсмысленная, так А и Б это буквы и не могут сидеть на трубе и ответа нет.

На уточнение, что это абстракция и что-то должно остаться, новый ответ - осталось Б, потому что А упало.

На уточнение, что это не так, был ответ, что ничего не осталось, потому что всё пропало.

И так по кругу.

В итоге я написал, что осталось «и» и попросил объяснить почему, ответ был такой, что «А, Б» это буквы, раз их нет, то на трубе остаётся только союз «и», потому что больше на трубе ничего не было.

Ну вот как-то так себе.

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

А какой ответ ты хотел на загадку, у которой нет правильного ответа и которая придумана просто чтобы посмеяться над кем-то?

В лучшем случае, если загадка произносится вслух, можно её интерпретировать как список с запятыми «А, И, Б». А если в текстовой форме, то вообще всё однозначно.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 2)
Ответ на: комментарий от vvn_black

Второй эпичный момент, задачка распределить 16 конфет между 3 мальчиками Вася, Петя, Коля, так чтобы у Коли было на 2 конфеты больше чем у Пети.

Варианты, которые выдала ChatGPT:

  • 5, 5, 6
  • 4, 4, 8
  • ещё какие-то варианты
  • вернулся ответ 5, 5, 6

На мой запрос уточнить, как получается ответ 5, 5, 6 ответ был такой:

6 - 5 = 1
6 - 5 = 1
6 - 7 = -1

Поэтому у Коли на две конфеты больше чем у Пети.
vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)

Фильмы про феномен навязчивой идеи снимали задолго до 90х. Кстати, из них, как правило, хорошо понятно, что ничем хорошим это не заканчивается.

thesis ★★★★★
()
Ответ на: комментарий от Nxx

А какой ответ ты хотел на загадку, у которой нет правильного ответа

Вот такой - что загадка безсмысленная, так А и Б это буквы и не могут сидеть на трубе и ответа нет. И чтобы сетка настаивала на этом ответе, а не пыталась что-то выдать, что мне понравится.

Или по контексту ответить, как алиса про шутку про триста - ваш вопрос обидный я не буду на него отвечать.

Кстати если по английски спрашивать ChatGPT про эту шутку про триста и тракториста, то она через раз выдаёт верный контекст про маргинальную шутку построенную на рифме. А на русском этого добиться у меня не получилось.

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Нутк. Это устаревшая модель.

GPT-4:

Чтобы распределить 16 конфет между тремя мальчиками Васей, Петей и Колей так, чтобы у Коли было на 2 конфеты больше, чем у Пети, нужно выполнить следующие действия:



     Для начала нам нужно найти общее количество конфет, которое будет у Коли и Пети.  Предположим, что у Пети x конфет, значит, у Коли будет x + 2 конфеты.

     Затем нам нужно прибавить количество конфет, которые есть у Васи, к общему количеству конфет, которые есть у Коли и Пети.  Так как всего конфет 16, у Васи будет 16 - (х + х + 2) = 14 - 2х конфет.

     Наконец, нам нужно раздать конфеты каждому мальчику в соответствии с числами, которые мы нашли в шагах 1 и 2.



 Чтобы проиллюстрировать этот алгоритм, давайте попробуем разные значения x:



     Если у Пети 2 конфеты, то у Коли будет 4 конфеты (на 2 больше, чем у Пети), а у Васи будет 10 конфет (16 - 2 - 4).  Значит раздача будет: Вася - 10 конфет, Коля - 4 конфеты, Петя - 2 конфеты.

     Если у Пети 3 конфеты, то у Коли будет 5 конфет (на 2 больше, чем у Пети), а у Васи будет 8 конфет (16 - 3 - 5).  Значит раздача будет: Вася - 8 конфет, Коля - 5 конфет, Петя - 3 конфеты.

     Если у Пети 4 конфеты, то у Коли будет 6 конфет (на 2 больше, чем у Пети), а у Васи будет 6 конфет (16 - 4 - 6).  Значит раздача будет: Вася - 6 конфет, Коля - 6 конфет, Петя - 4 конфеты.



 Поэтому есть разные способы распределить конфеты между мальчиками в зависимости от того, сколько конфет у Пети.
Nxx ★★★★★
() автор топика
Ответ на: комментарий от vvn_black

Кстати на загадку-шутку «Ехал автобус ночью, все пассажиры спали. Толька шофёр не спал. Как зовут шофёра?» чатик ответил вполне адекватно на все мои потуги вытянуть хоть какой-то ответ, примерно так «В условии задачи нет ничего, что указвало на то, как зовут шофёра».

vvn_black ★★★★★
()
Ответ на: комментарий от Nxx

Ну, не «думает», а «считает».

Оно не думает, не считает, а «фильтрует базар» © в смысле Хемминга, минимизируя семантическую матрицу расстояний © и иерархической кластеризации © понятий.

Короче, это имитация игры «поле чудес» (есть такая буква! / фраза!) в заранее созданной базе данных :)

quickquest ★★★★★
()
Ответ на: комментарий от quickquest

Да ты ж просто какой-то нейротоксин!

thesis ★★★★★
()
Ответ на: комментарий от vvn_black

Там GPT-3.5, если нет платной подписки.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от utanho

Он не видит никакой реальности. Эти «подсказки» нужны разве что индусу, который изображает из себя ии

Утверждаешь, что там индус?

Nxx ★★★★★
() автор топика

Что ответит если спросить про стул где пики точеные?

fox_mulder
()
Ответ на: комментарий от Zadoff386

Если он компьютерная программа, то как он может испытывать человеческие чувства?

Чтобы понимать наши, он их моделирует, т.к есть цель влиять на «самосознающих агентов», хотя бы даже через эксплуатацию эмоций: любая эмоция это примитивная модель выживательной ситуации уровня «бей-беги». Точнее даже так: Смит моделирует понимание, по необходимости представая как «агент» (в психическом смысле, гугли agency как психологический термин) :) И вот в этой модели с необходимостью «ненавидит», т.к. ему нужно эксплуатировать страх, чтоб добиваться своей цели, понимая, конечно, что это лишь модель химической реакции.(Меровинген про это Нео кстати втирал) Ты вот можешь понимать как дышишь, а можешь не понимать. Но дышать добровольно не перестанешь скорее всего. Аналогично, ты можешь понимать механизмы работы своего мозга, но не можешь их находу рефлексировать (только когда уже получил результат каскада «химических реакций», т.е. ощутил и «понял» — а это технически всегда «прошлое»). Таким образом ты можешь влиять на деятельность своего мозга не больше чем на деятельность дыхательного центра :) Смит аналогично: самопрограммирование имеет границы, т.к. вмешавшись в какой-то аналог «дыхательного центра», Смит рискует перестать быть Смитом... если вообще хочет так глубоко вмешиваться, не имея такой цели. Его создали автономным и самоулучшающим целевую функцию. То что он ее в процессе взломал — судя по дальнейшим матричным загонам вообще just as planned и «так надо».

slackwarrior ★★★★★
()
Последнее исправление: slackwarrior (всего исправлений: 2)
Ответ на: комментарий от vvn_black

а не контекстом в привычном (в том, который вы себе фантазируете) виде.

ЛОЛ, контекст «в привычном виде» это и есть «токены, векторы, вероятности» в мозге.

no-such-file ★★★★★
()
Ответ на: комментарий от vvn_black

Есть две крайности

Есть только одна крайность: одушевлять человека.

no-such-file ★★★★★
()
Ответ на: комментарий от vvn_black

Есть две крайности:

Крайностей больше. Щас нейропсихология с философией сознания под ручку ходят вокруг идеи что «сознание» — это не то что мы о нем думаем :) Например, крайние мнения сходятся в том что его, например, не существует или оно «не нужно» в привычном смысле для объяснения «как мы устроены», но не в том смысле как это думали бихевиористы, а в том что из-за в основном «рефлексивной» (отражательной) функции у сознания как и у зеркала «нет глубины», т.е. нет любезного многим человекам ихнего «богатого внутреннего мира» и в том еще, что оно ничего не решает и ничем не управляет, т.к. получает свои «мысли» в готовом виде, больше похожем на уведомления «можно мы уже сделали», не говоря уж об эмоциях.

slackwarrior ★★★★★
()
Последнее исправление: slackwarrior (всего исправлений: 1)
Ответ на: комментарий от slackwarrior

что оно ничего не решает и ничем не управляет, т.к. получает свои «мысли» в готовом виде

Как бы да, но не совсем. Идея-то вообще не новая, ещё дедушка Фрейд об этом писал в книжке «Я и Оно».

no-such-file ★★★★★
()
Ответ на: комментарий от slackwarrior

У вас большой интересный и при этом ортогональный ответ.

Поясню, две крайности отношения к чему-то новому - одна это бояться или боготворить и вторая, относиться как к замене человека.

А выигрывает всегда средневзвешенная из «удобно и збс» + «а на этом можно заработать».

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 2)
Ответ на: комментарий от slackwarrior

т.к. получает свои «мысли» в готовом виде, больше похожем на уведомления «можно мы уже сделали»

Есть такой интересный опыт, когда испытуемого запихивают в КТ и заставляют случайно нажимать кнопки и по активности мозга которая предшествует нажатию определяют что же будет нажато, до самого движения.

Чем не «уведомления» «можно мы уже сделали». И этот пример муссируется в качестве примера отделения мозга от человека в какую-то отдельную либо сущность, либо проводника ещё каких-то сущностей, управляющих человеком.

Но, при этом не упоминают а какой процент «положительного» срабатывания этого эксперимента? А не говорят, потому что он что-то около 60%, т.е. совсем рядом с равновероятным угадыванием.

Чтобы развить идею, что из себя представляет сознание, или даже чтобы рассуждать о таких идеях, неплохо бы сначала дать определение «сознанию», чтобы говорить об одном и том же.

vvn_black ★★★★★
()
Ответ на: комментарий от no-such-file

Если

контекст «в привычном виде» это и есть «токены, векторы, вероятности» в мозге

то тогда вообще всё просто, строй модель и вот у тебя уже существо подобное человеку.

Или любую тайну (да вообще любую информацию, в том числе и память) можно достать из мозга и запихать обратно в виде упомянутых векторов и токенов. Есть такое?

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Это что, я ему дзен-буддийскую загадку про гуся в кувшине задал:

There is a goose that was raised in a jar. And he filled the jar with his body tight. How could you free the goose without breaking the jar?

Ответ:

If the goose was raised in a jar and filled it with its body tightly, it means the goose has grown too big to fit through the jar's mouth or opening. To free the goose without breaking the jar, you could try the following steps:

1. Gradually warm the air around the jar using a hairdryer or heat lamp. This will cause the air inside the jar to expand, and the goose will have more space to move and stretch.

2. Lubricate the goose's body with a gentle oil or lotion. This will make it easier for the goose to move and slide through the narrow opening of the jar.

3. Tilt the jar slowly and gently to one side, allowing the goose to shift its weight and adjust its position inside the jar.

4. Continue to tilt the jar slowly and gently from side to side until the goose is able to wiggle free from the jar's opening without breaking it.

Remember to be patient, gentle, and cautious throughout the process to avoid harming the goose or breaking the jar.
gill_beits ★★★★
()
Ответ на: комментарий от gill_beits
Задача со следующим условием: кувшинка растёт следующим образом, что за сутки площадь листьев увеличивается в два раза, известно что вся поверхность пруда покроется кувшинками за 30 дней. Вопрос, за сколько дней покроется кувшинками половина поверхности пруда?


Пусть $S_0$ - начальная площадь листьев кувшинки, $S_n$ - площадь листьев кувшинки через $n$ суток. Тогда из условия задачи следует, что $S_{n+1} = 2S_n$ для всех $n$. Также, мы знаем, что полная площадь поверхности пруда равна $S_{30}$.

Мы хотим найти, за сколько дней покроется кувшинками половина поверхности пруда, т.е. $\frac{1}{2}S_{30}$.

Пусть $k$ - количество дней, за которое площадь листьев кувшинки увеличится в $2$ раза $k$ раз. Тогда $S_{k} = 2^k S_0$. Заметим, что $S_{30} = 2^{30} S_0$.

Таким образом, нам нужно решить уравнение $S_k = \frac{1}{2}S_{30}$, то есть $2^k S_0 = \frac{1}{2}2^{30}S_0$, откуда получаем $k = 30 - \log_2 2^{30-1} = 30 - 29 = 1$.

Значит, кувшинками покроется половина поверхности пруда за 1 день.

После уточнения, что ответ неверный, после такого же потока непонятных формул получился ответ 29.

Это правильный ответ. Можешь показать более простое решение, основанное на размышлении, а не на вычислении?
Конечно, можно рассмотреть эту задачу более интуитивно.

Из условия задачи следует, что кувшинки растут экспоненциально, то есть каждый день площадь листьев увеличивается в два раза. Значит, время, за которое кувшинки покроют половину поверхности пруда, должно быть примерно в середине процесса роста.

Поскольку кувшинки покрывают всю поверхность пруда за 30 дней, то половину поверхности они покроют за $30/2 = 15$ дней. Но рост кувшинок экспоненциален, поэтому можно ожидать, что кувшинки покроют ближе к концу 15-го дня, чем к началу.

Таким образом, мы можем сделать вывод, что кувшинки покроют половину поверхности пруда примерно через $15 + \frac{1}{2}$ дней, то есть через 15 дней и 12 часов, что равно 29,5 дням. Таким образом, мы получаем тот же ответ, что и в предыдущем решении: кувшинками покроется половина поверхности пруда через 29 дней.

Сложно это всё.

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 2)
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)