LINUX.ORG.RU
Ответ на: комментарий от papin-aziat

Дважды два говоришь?

Ну вот я придумываю задачки из головы, и она решает:

User
На тарелке лежало 108 косточек. Треть косточек забрали. Из оставшегося количества половину поставили прорастать. Все косточки проросли и их посадили в землю. Сколько деревьев должно взойти при хорошем уходе за посадкой?

ChatGPT
Если изначально на тарелке было 108 косточек, то треть косточек, которые забрали, будет равна (1/3) * 108 = 36 косточкам.

Оставшееся количество косточек будет равно 108 - 36 = 72 косточки.

Половину от 72 косточек поставили прорастать, что составляет (1/2) * 72 = 36 косточек.

Таким образом, в землю было посажено 36 деревьев, при условии, что все косточки проросли и были посажены. Однако, не все проросшие косточки могут превратиться в здоровые деревья. Кроме того, для хорошего ухода за посадкой необходимо учитывать множество других факторов, таких как вода, питание, условия окружающей среды и т. д.



Задача с ненужными данными (100 досок):

User
Реши задачку: Для забора было заготовлено 100 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?

ChatGPT
Работник сделал 7 циклов, каждый раз в левой руке держал по одной доске, а в правой - по две, то есть перенес 7*(1+2) = 21 досок. Затем он принес еще одну доску, итого работник перенес 21 + 1 = 22 доски. Ответ: 22 доски.



Та же задача с противоречием:

User
Реши задачку: Для забора было заготовлено 15 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?

ChatGPT
Работник брал по одной доске в левую руку и по две доски в правую руку, и он повторил это семь раз. Это означает, что он перенес 7 × (1 + 2) = 7 × 3 = 21 доску. После этого он принес еще одну доску, что добавляет еще одну доску к общему количеству. Итак, всего работник перенес 21 + 1 = 22 доски.

User
Как он мог перенести 22 доски, если изначально их было 15?

ChatGPT
Задача, как она была представлена, содержит в себе противоречие, и правильный ответ состоит в том, что работник не мог перенести больше досок, чем было изначально. Исходя из начального количества досок, равного 15, нельзя перенести 22 доски или любое другое количество, превышающее 15.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

Дважды два говоришь? …

https://www.cnews.ru/news/top/2023-05-02_ssha_vydali_patent_na_rossijskij

«Нейросети замечательно извлекают информацию из примеров, но их практически невозможно научить непреложным законам физики или математики, — рассуждает Владимир Львович Арлазаров. — Показательны недавние упражнения сети ChatGPT в арифметике. При умножении больших чисел сеть правильно указывает первые и последние цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”. Довольно забавный результат, ведь для правильного решения требуется в миллиарды раз меньше ресурсов, чем те, что есть в распоряжении у нейросети. Встает вопрос: а можно ли вообще изучать математику на примерах?».

vinvlad ★★
()
Ответ на: комментарий от vinvlad

Посмотрим как будет рассуждать Владимир Львович Арлазаров когда ChatGPT соединят в Wolfram Alpha, процесс уже идет.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

Ну, арифметике-то можно научить - алгоритмически :) - а вот каким-то реально творческим мыслительным процессам - это вряд ли.

vinvlad ★★
()
Ответ на: комментарий от vinvlad

а вот каким-то реально творческим мыслительным процессам

Чем тебе не мыслительный процесс:

Предикаты в классической логике (комментарий)

Это не компиляция из текстов, как думает papin-aziat.

Ну а что касается творчества, то генерация картинок уже давно все доказало, что такое творчество. Сейчас подтягивается музыка и 3D.

Xintrea ★★★★★
()
Последнее исправление: Xintrea (всего исправлений: 1)
Ответ на: комментарий от Xintrea

Чем тебе не мыслительный процесс …

Ну, это весьма примитивный процесс последовательного уточнения понятий по ходу чтения текста задачи. Я же про другое…
Теорфизиком или математиком ChatGPT явно не станет ))

vinvlad ★★
()
Ответ на: комментарий от Xintrea

Во-первых, я не вижу принципиальной разницы между 2+2 и твоими задачками. Во-вторых, я согласен с тобой, что выглядит всё как будто бы оно думает и решает, но оно не думает и не решает, оно подставляет слова (за что купил, за то и продаю, я не спец).

Ясное дело, в ситуации, где задачу можно сформулировать математически, оно просто тебе посчитает, обращаясь к вычислительным возможностям компьютера. Если математика не работает, то будет подставлен вероятный вариант из набора шаблонов, сформированных из высказываний, написанных или сказанных людьми.

Тут мы имеем дело с твоим восприятием и оно безусловно истинно, если находится в пределах экологии, если же твоя мысль о разумном компьютере начнёт нарушать экологию людей, то мы скажем, что тебе пора остановиться.

Когда ты описываешь возможности чата, то ты используешь естественный язык и неизбежно безбожно антропоморфизируешь, тогда как в этом вопросе надо быть более точным и отказаться от глаголов уметь, думать и тд по отношению к машине. Языковая модель – это мимикрия общения, на самом деле ты ни с кем не разговариваешь и на том конце провода никого нет.

Я не собираюсь критиковать слабые места языковой модели (да я и не компетентен, хотя они и лежат на поверхности), поэтому остановлюсь на сильных. Прелесть этой штуки не в способности решать задачи, а в возможности иметь под рукой «говорящий книжный шкаф», к которому можно с помощью грамотно (относительно возможностей модели) сформулированных запросов обращаться за компиляциями на тему, чтобы толкнуть мысль в другом направлении или уточнить свою.

Таково моё мнение о ЧатГПТ-3

papin-aziat ★★★★★
()
Ответ на: комментарий от Xintrea

генерация картинок уже давно все доказало, что такое творчество. Сейчас подтягивается музыка

Зачем же так обнаруживать своё совершенное непонимание искусства?

papin-aziat ★★★★★
()
Ответ на: комментарий от Xintrea

задачки из головы, и она решает

Твои задачки из головы очень шаблонны, таких задачек 100500+ на просторах интернета. Очевидно нейросетка смогла выделить из них паттерны и научиться их «решать». Но как только ты в последнем примере слегка вышел за шаблон, то она сразу споткнулась.

foror ★★★★★
()
Ответ на: комментарий от vinvlad

цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”

Оно не угадывает длину. Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор». Но он не всегда верной вычисляет. Поэтому если попросить пересчитать результат, то со второй попытки можно получить верный результат.

foror ★★★★★
()
Ответ на: комментарий от foror

Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор».

Тут вот сказали, что в очередной версии планируют снабдить это «оно» правильным внешним калькулятором :) Вот только вопрос: а всегда ли «оно» будет обращаться к услугам правильного калькулятора?)

vinvlad ★★
()
Ответ на: комментарий от vinvlad

Так нейронка это вероятностная фигня, она тебе не гарантирует 100% правильный ответ в отличии от того же сумматора на транзисторах.

Тот же человек, даже ученый часто ошибается. Схожая архитектура. Но думаю нейронка сможет по итогу ошибаться меньше человека.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

… Но думаю нейронка сможет по итогу ошибаться меньше человека.

Тут несколько разный характер ошибок. Человек, конечно, тоже ненадежное существо - его «сбои» это действительно «вероятностная фигня», если не учитывать какие-то особые случаи. А вот неверно обученная нейронная сетка в одной и той же фатальной ситуации будет сбоить детерминировано - ну т. е. сбой будет прогнозируемым.

vinvlad ★★
()
Ответ на: комментарий от papin-aziat

Когда ты описываешь возможности чата, то ты используешь естественный язык и неизбежно безбожно антропоморфизируешь, тогда как в этом вопросе надо быть более точным и отказаться от глаголов уметь, думать и тд по отношению к машине. Языковая модель – это мимикрия общения, на самом деле ты ни с кем не разговариваешь и на том конце провода никого нет.

Ну так ChatGPT проходит тест Тьюринга с любым неподготовленным респондентом. А если так, то нет никакой разницы, мимикрия это или способность думать/мыслить.

Сейчас например специалисты начинают подозревать, что ChatGPT докопалась до какого-то антропологического базиса за счет того, что обучается на разных языках, и на генерацию текста помимо дополнительных подсистем влияют и взаимосвязи внутри предметной области, которая была скормлена сетке в виде текстов на разных языках. Таким образом, это не просто генератор текста, и не просто на каком-то языке, а некий транслятор того что мы знаем о предметной области на язык пользователя, причем в качестве исходников выступают все используемые языки. Одно только это повышает ценность такой сети до неимоверных высот.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

ChatGPT проходит тест Тьюринга с любым неподготовленным респондентом

Не проходит.

Любой экзистенциальный вопрос - и чатгопота отвечает заглушкой.

alex1101
()
Ответ на: комментарий от Xintrea

Ну так ChatGPT проходит тест Тьюринга с любым неподготовленным респондентом.

Что значит «подготовленный»?

Вчера был топик, просили регулярку на два условия. Закинул условия скопировав из ОП, чатжпт выдала решение, правильное решение. Только ТС в тестовых данных вместо c (си) написал кириллическую с (эс), а неонка из промпта этого не выцепила и дала решение только на латиницу.

И получается:

  • Я: вот тебе тестовый пример, он не проходит решение, даёт неверный результат
  • Чат: да, извините, эта строка не соответствует двум указанным условиям
  • Я: эта строка соответствует условиям и ответ должен быть положительным
  • Чат: Да, извините, что ввела в заблуждение, этот пример правильный и указанная выше функция выдает положительный ответ
  • Я: - но функция на эту строку даёт не верный результат
  • Чат: да, извините, но эта строка не подходит под заданные условия
  • Я: но, она подходит…

и так по кругу. Думаю, что в этом случае тест Тьюринга был бы провален довольно быстро, независимо от готовности респондента.

vvn_black ★★★★★
()
Ответ на: комментарий от alex1101

Любой экзистенциальный вопрос - и чатгопота отвечает заглушкой.

Так это же, наоборот, человеческое поведение.

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Отвечать заглушкой «я ИИ и мне неведомы чувства» на вопросы типа «как себя чувствуешь?» или «тебе нравятся пельмени?» - это человеческое поведение?

alex1101
()
Ответ на: комментарий от alex1101

Любой экзистенциальный вопрос - и чатгопота отвечает заглушкой.

Для ChatGPT ответить на любой экзистенциальный вопрос - вообще не проблема. Завернет тебе так, что будешь сам задаваться вопросом зачем ты живешь, если бездушная машина умеет так раскладывать.

Xintrea ★★★★★
()
Ответ на: комментарий от vvn_black

Неподготовленный респондент и теория регулярных выражений на примере строки со специально замененным символом, который выглядит так же, но принадлежит другому языку?

Ты адекватно себе представляешь неподготовленного респондента?

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

А ты понимаешь, что дело то совсем не в регулярках и не в том, что идёт шельмование на уровне проверочных данных, хотя алгоритм должен был это выцепить, что ещё раз говорит о том, что логика чатжпт далеко не вычислительная.

А дело в «поведении», т.е. нескольких его аспектов:

  • корреспондент всегда прав
  • даже, если корреспондент не прав, то извинись и см. п. 1
  • отсутствует самостоятельный выход из приведённой выше ситуации, для указанного примера, как только прямо указать, что ты не учитываешь символы другого алфавита - задача решается
  • исходя из предыдущего пункта, отсутствует анализ и оппозиция
  • нет реакции на повторяющиеся противоречивые ситуации

Как-то так, эти аспекты замечены при общении с бесплатной 3.5.

vvn_black ★★★★★
()
Ответ на: комментарий от Xintrea

Ты адекватно себе представляешь неподготовленного респондента?

Так, я и попросил дать определение или пример.

vvn_black ★★★★★
()
Ответ на: комментарий от alex1101

Отвечать заглушкой «я ИИ и мне неведомы чувства» на вопросы типа «как себя чувствуешь?» или «тебе нравятся пельмени?» - это человеческое поведение?

Это нормально, при проведении теста Тьюринга подразумевается, что одним из собеседников может оказаться человек, прикидывающейся неонкой.

vvn_black ★★★★★
()
Ответ на: комментарий от alex1101

Если уж душнить до конца, то тест Тьюринга не про то, что ИИ прикидывается человеком, да и вообще не про ИИ.

А про человека и оценочный уровень возможности человека распознать ИИ. И планку прохождения на основе результата теста можно двигать.

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Ну ващет Тьюринг писал именно про ИИ как идеальный имитатор человека. И насколько я знаю, в информатике с тех пор не появилось другого определения ИИ. Только через имитацию человека в тех или иных аспектах.

alex1101
()
Ответ на: комментарий от vvn_black

Так, я и попросил дать определение или пример.

Ну посади свою маму поговорить с ChatGpt

Xintrea ★★★★★
()
Ответ на: комментарий от alex1101

Ну ващет Тьюринг писал именно про ИИ как идеальный имитатор человека

Вот что в результате получается, когда математик лезет рассуждать о том, что такое человек

vaddd ★☆
()
Ответ на: комментарий от alex1101

Чтобы сравнивать что-то с человеком не уровне выше чем «ручки, ножки, огуречик» - нужно знать предмет сравнения. А сымитировать человека на подобном уровне даже машина не нужна. А уж когда речь идет про «идеальный имитатор человека»…

vaddd ★☆
()
Ответ на: комментарий от vvn_black

корреспондент всегда прав

Вот два чая, ее оптимизировали не на прохождение теста Тьюринга, а для другого, если поубирать некоторые ограничения, то дела в этом плане были бы лучше.

goingUp ★★★★★
()
Ответ на: комментарий от vvn_black

Только ТС в тестовых данных вместо c (си) написал кириллическую с (эс), а неонка из промпта этого не выцепила и дала решение только на латиницу.

Живой же программист конечно сразу бы все понял, и не тупил)

goingUp ★★★★★
()
Ответ на: комментарий от vinvlad

правильно указывает первые и последние цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”. Довольно забавный результат, ведь для правильного решения требуется в миллиарды раз меньше ресурсов, чем те, что есть в распоряжении у нейросети

Да, довольно забавный результат, что «T9 на стрероидах» какого-то хрена (простите) умеет считать, хоть и плохо, хотя ее задача чисто генерировать тексты. Да, я тоже нахожу это очень забавным)

goingUp ★★★★★
()
Ответ на: комментарий от alex1101

Поведение? Что такое «поведение»? Любая отдельно взятая часть действий человека однообразна и элементарна. Это не сильно отличается от «ручки-ножки-огуречик». Можно сделать робота, который будет двигаться как человек. Можно сделать робота который будет отвечать на вопросы как человек. Это все проекции многомерной фигуры на какую-то одну плоскость. Или на две, или не три. По любому это будет симуляция незначительной части человека.

Упрощенно говоря, это подобно вопросу - «может ли слесарь сделать детальку, которую невозможно будет внешне отличить от микропроцессора»

vaddd ★☆
()
Ответ на: комментарий от vaddd

Можно сделать робота, который будет двигаться как человек. Можно сделать робота который будет отвечать на вопросы как человек

Сделай, потом поговорим.

alex1101
()
Ответ на: комментарий от Xintrea

Для забора было заготовлено 15 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?

Кстати, если в первом же сообщении спросить, есть ли противоречие в условии задачи, он скажет, что есть.

goingUp ★★★★★
()
Ответ на: комментарий от alex1101

Так уже сделали. Немало людей, а может и большинство людей не отличит по ответам чатгпг от человека. Теперь говорите.

vaddd ★☆
()
Ответ на: комментарий от alex1101

Какие еще пруфы? ) Люди еще задолго до этого чатгпт не понимали что им в соцсетях или в чатах поддержки бот отвечает )

vaddd ★☆
()
Ответ на: комментарий от alex1101

Пруфы ни как не скомпенсируют ваше отсутствие знаний и привычки к чтению - вы их не поймете или не поверите. Отвыкайте просить пруфы, понемногу привыкайте замещать их самостоятельным поиском информации

vaddd ★☆
()
Ответ на: комментарий от alex1101

Не надо пытаться что-то доказывать, за, или против, при ваших околонулевых знаниях это смешно. Просто сходите и ознакомьтесь с предметом. Не для меня, не для спора - для себя прочитайте, просто чтобы заполнить вакуум в вашей черепной коробке

vaddd ★☆
()
Ответ на: комментарий от alex1101

Я вас и не собираюсь веселить - я вам сочувствую, пруфщик

vaddd ★☆
()
Ответ на: комментарий от Xintrea

Человек — это про мотивации.

Да, воспитание и образование будут влиять на методы, но любые методы будут служить тем же мотивациям. Например, один и тот же человек с судьбой неграмотного нищеброда или образованного богача будет творить одну и ту же херню, но всего лишь в разном окружении и с разным размахом.

Так вот, как минимум, пока машину не начнут вынашивать бабы, вынимать из матери, заставлять дышать, пока сиска не станет желанным объектом с самого появления на свет, пока не придёт отец или брат, или сестра и не отнимет мать и тд по списку, — до этих пор машина не станет человеком. А хорошо это или плохо — мне пофиг.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

один и тот же человек с судьбой неграмотного нищеброда или образованного богача

Не может быть одного и того же человека с настолько разным жизненным путём.

alex1101
()
Ответ на: комментарий от alex1101

Человека делает его жизненный путь.

Конечно, а ещё человека сотворил Бог и земля находится в центре мира.

papin-aziat ★★★★★
()
Ответ на: комментарий от goingUp

Да, довольно забавный результат, что «T9 на стрероидах» какого-то хрена (простите) умеет считать, хоть и плохо …

Уметь считать и выучить таблицу умножения/деления/вычитания для чисел определенного диапазона - это совершенно разные вещи. Уметь считать «оно» вряд ли научится - но пользоваться калькулятором конечно научат :)

vinvlad ★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)