Ну вот я придумываю задачки из головы, и она решает:
User На тарелке лежало 108 косточек. Треть косточек забрали. Из оставшегося количества половину поставили прорастать. Все косточки проросли и их посадили в землю. Сколько деревьев должно взойти при хорошем уходе за посадкой?
ChatGPT Если изначально на тарелке было 108 косточек, то треть косточек, которые забрали, будет равна (1/3) * 108 = 36 косточкам.
Оставшееся количество косточек будет равно 108 - 36 = 72 косточки.
Половину от 72 косточек поставили прорастать, что составляет (1/2) * 72 = 36 косточек.
Таким образом, в землю было посажено 36 деревьев, при условии, что все косточки проросли и были посажены. Однако, не все проросшие косточки могут превратиться в здоровые деревья. Кроме того, для хорошего ухода за посадкой необходимо учитывать множество других факторов, таких как вода, питание, условия окружающей среды и т. д.
Задача с ненужными данными (100 досок):
User Реши задачку: Для забора было заготовлено 100 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?
ChatGPT Работник сделал 7 циклов, каждый раз в левой руке держал по одной доске, а в правой - по две, то есть перенес 7*(1+2) = 21 досок. Затем он принес еще одну доску, итого работник перенес 21 + 1 = 22 доски. Ответ: 22 доски.
Та же задача с противоречием:
User Реши задачку: Для забора было заготовлено 15 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?
ChatGPT Работник брал по одной доске в левую руку и по две доски в правую руку, и он повторил это семь раз. Это означает, что он перенес 7 × (1 + 2) = 7 × 3 = 21 доску. После этого он принес еще одну доску, что добавляет еще одну доску к общему количеству. Итак, всего работник перенес 21 + 1 = 22 доски.
User Как он мог перенести 22 доски, если изначально их было 15?
ChatGPT Задача, как она была представлена, содержит в себе противоречие, и правильный ответ состоит в том, что работник не мог перенести больше досок, чем было изначально. Исходя из начального количества досок, равного 15, нельзя перенести 22 доски или любое другое количество, превышающее 15.
«Нейросети замечательно извлекают информацию из примеров, но их практически невозможно научить непреложным законам физики или математики, — рассуждает Владимир Львович Арлазаров. — Показательны недавние упражнения сети ChatGPT в арифметике. При умножении больших чисел сеть правильно указывает первые и последние цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”. Довольно забавный результат, ведь для правильного решения требуется в миллиарды раз меньше ресурсов, чем те, что есть в распоряжении у нейросети. Встает вопрос: а можно ли вообще изучать математику на примерах?».
Ну, это весьма примитивный процесс последовательного уточнения понятий по ходу чтения текста задачи. Я же про другое…
Теорфизиком или математиком ChatGPT явно не станет ))
Во-первых, я не вижу принципиальной разницы между 2+2 и твоими задачками. Во-вторых, я согласен с тобой, что выглядит всё как будто бы оно думает и решает, но оно не думает и не решает, оно подставляет слова (за что купил, за то и продаю, я не спец).
Ясное дело, в ситуации, где задачу можно сформулировать математически, оно просто тебе посчитает, обращаясь к вычислительным возможностям компьютера. Если математика не работает, то будет подставлен вероятный вариант из набора шаблонов, сформированных из высказываний, написанных или сказанных людьми.
Тут мы имеем дело с твоим восприятием и оно безусловно истинно, если находится в пределах экологии, если же твоя мысль о разумном компьютере начнёт нарушать экологию людей, то мы скажем, что тебе пора остановиться.
Когда ты описываешь возможности чата, то ты используешь естественный язык и неизбежно безбожно антропоморфизируешь, тогда как в этом вопросе надо быть более точным и отказаться от глаголов уметь, думать и тд по отношению к машине. Языковая модель – это мимикрия общения, на самом деле ты ни с кем не разговариваешь и на том конце провода никого нет.
Я не собираюсь критиковать слабые места языковой модели (да я и не компетентен, хотя они и лежат на поверхности), поэтому остановлюсь на сильных. Прелесть этой штуки не в способности решать задачи, а в возможности иметь под рукой «говорящий книжный шкаф», к которому можно с помощью грамотно (относительно возможностей модели) сформулированных запросов обращаться за компиляциями на тему, чтобы толкнуть мысль в другом направлении или уточнить свою.
Твои задачки из головы очень шаблонны, таких задачек 100500+ на просторах интернета. Очевидно нейросетка смогла выделить из них паттерны и научиться их «решать». Но как только ты в последнем примере слегка вышел за шаблон, то она сразу споткнулась.
цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”
Оно не угадывает длину. Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор». Но он не всегда верной вычисляет. Поэтому если попросить пересчитать результат, то со второй попытки можно получить верный результат.
Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор».
Тут вот сказали, что в очередной версии планируют снабдить это «оно» правильным внешним калькулятором :) Вот только вопрос: а всегда ли «оно» будет обращаться к услугам правильного калькулятора?)
… Но думаю нейронка сможет по итогу ошибаться меньше человека.
Тут несколько разный характер ошибок. Человек, конечно, тоже ненадежное существо - его «сбои» это действительно «вероятностная фигня», если не учитывать какие-то особые случаи. А вот неверно обученная нейронная сетка в одной и той же фатальной ситуации будет сбоить детерминировано - ну т. е. сбой будет прогнозируемым.
Когда ты описываешь возможности чата, то ты используешь естественный язык и неизбежно безбожно антропоморфизируешь, тогда как в этом вопросе надо быть более точным и отказаться от глаголов уметь, думать и тд по отношению к машине. Языковая модель – это мимикрия общения, на самом деле ты ни с кем не разговариваешь и на том конце провода никого нет.
Ну так ChatGPT проходит тест Тьюринга с любым неподготовленным респондентом. А если так, то нет никакой разницы, мимикрия это или способность думать/мыслить.
Сейчас например специалисты начинают подозревать, что ChatGPT докопалась до какого-то антропологического базиса за счет того, что обучается на разных языках, и на генерацию текста помимо дополнительных подсистем влияют и взаимосвязи внутри предметной области, которая была скормлена сетке в виде текстов на разных языках. Таким образом, это не просто генератор текста, и не просто на каком-то языке, а некий транслятор того что мы знаем о предметной области на язык пользователя, причем в качестве исходников выступают все используемые языки. Одно только это повышает ценность такой сети до неимоверных высот.
Ну так ChatGPT проходит тест Тьюринга с любым неподготовленным респондентом.
Что значит «подготовленный»?
Вчера был топик, просили регулярку на два условия. Закинул условия скопировав из ОП, чатжпт выдала решение, правильное решение. Только ТС в тестовых данных вместо c (си) написал кириллическую с (эс), а неонка из промпта этого не выцепила и дала решение только на латиницу.
И получается:
Я: вот тебе тестовый пример, он не проходит решение, даёт неверный результат
Чат: да, извините, эта строка не соответствует двум указанным условиям
Я: эта строка соответствует условиям и ответ должен быть положительным
Чат: Да, извините, что ввела в заблуждение, этот пример правильный и указанная выше функция выдает положительный ответ
Я: - но функция на эту строку даёт не верный результат
Чат: да, извините, но эта строка не подходит под заданные условия
Я: но, она подходит…
и так по кругу.
Думаю, что в этом случае тест Тьюринга был бы провален довольно быстро, независимо от готовности респондента.
Любой экзистенциальный вопрос - и чатгопота отвечает заглушкой.
Для ChatGPT ответить на любой экзистенциальный вопрос - вообще не проблема. Завернет тебе так, что будешь сам задаваться вопросом зачем ты живешь, если бездушная машина умеет так раскладывать.
Неподготовленный респондент и теория регулярных выражений на примере строки со специально замененным символом, который выглядит так же, но принадлежит другому языку?
Ты адекватно себе представляешь неподготовленного респондента?
А ты понимаешь, что дело то совсем не в регулярках и не в том, что идёт шельмование на уровне проверочных данных, хотя алгоритм должен был это выцепить, что ещё раз говорит о том, что логика чатжпт далеко не вычислительная.
А дело в «поведении», т.е. нескольких его аспектов:
корреспондент всегда прав
даже, если корреспондент не прав, то извинись и см. п. 1
отсутствует самостоятельный выход из приведённой выше ситуации, для указанного примера, как только прямо указать, что ты не учитываешь символы другого алфавита - задача решается
исходя из предыдущего пункта, отсутствует анализ и оппозиция
нет реакции на повторяющиеся противоречивые ситуации
Как-то так, эти аспекты замечены при общении с бесплатной 3.5.
Ну ващет Тьюринг писал именно про ИИ как идеальный имитатор человека. И насколько я знаю, в информатике с тех пор не появилось другого определения ИИ. Только через имитацию человека в тех или иных аспектах.
Чтобы сравнивать что-то с человеком не уровне выше чем «ручки, ножки, огуречик» - нужно знать предмет сравнения. А сымитировать человека на подобном уровне даже машина не нужна. А уж когда речь идет про «идеальный имитатор человека»…
Вот два чая, ее оптимизировали не на прохождение теста Тьюринга, а для другого, если поубирать некоторые ограничения, то дела в этом плане были бы лучше.
правильно указывает первые и последние цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”. Довольно забавный результат, ведь для правильного решения требуется в миллиарды раз меньше ресурсов, чем те, что есть в распоряжении у нейросети
Да, довольно забавный результат, что «T9 на стрероидах» какого-то хрена (простите) умеет считать, хоть и плохо, хотя ее задача чисто генерировать тексты. Да, я тоже нахожу это очень забавным)
Поведение? Что такое «поведение»? Любая отдельно взятая часть действий человека однообразна и элементарна. Это не сильно отличается от «ручки-ножки-огуречик». Можно сделать робота, который будет двигаться как человек. Можно сделать робота который будет отвечать на вопросы как человек. Это все проекции многомерной фигуры на какую-то одну плоскость. Или на две, или не три. По любому это будет симуляция незначительной части человека.
Упрощенно говоря, это подобно вопросу - «может ли слесарь сделать детальку, которую невозможно будет внешне отличить от микропроцессора»
Для забора было заготовлено 15 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?
Кстати, если в первом же сообщении спросить, есть ли противоречие в условии задачи, он скажет, что есть.
Пруфы ни как не скомпенсируют ваше отсутствие знаний и привычки к чтению - вы их не поймете или не поверите. Отвыкайте просить пруфы, понемногу привыкайте замещать их самостоятельным поиском информации
Не надо пытаться что-то доказывать, за, или против, при ваших околонулевых знаниях это смешно. Просто сходите и ознакомьтесь с предметом. Не для меня, не для спора - для себя прочитайте, просто чтобы заполнить вакуум в вашей черепной коробке
Да, воспитание и образование будут влиять на методы, но любые методы будут служить тем же мотивациям. Например, один и тот же человек с судьбой неграмотного нищеброда или образованного богача будет творить одну и ту же херню, но всего лишь в разном окружении и с разным размахом.
Так вот, как минимум, пока машину не начнут вынашивать бабы, вынимать из матери, заставлять дышать, пока сиска не станет желанным объектом с самого появления на свет, пока не придёт отец или брат, или сестра и не отнимет мать и тд по списку, — до этих пор машина не станет человеком. А хорошо это или плохо — мне пофиг.
Да, довольно забавный результат, что «T9 на стрероидах» какого-то хрена (простите) умеет считать, хоть и плохо …
Уметь считать и выучить таблицу умножения/деления/вычитания для чисел определенного диапазона - это совершенно разные вещи. Уметь считать «оно» вряд ли научится - но пользоваться калькулятором конечно научат :)