LINUX.ORG.RU

Отвечает Александр Друзь ChatGPT:

Как модель искусственного интеллекта, я основан на алгоритме GPT-3.5, который в своей основе не специализируется на конкретных формализмах логики, таких как предикативная логика. Вместо этого, я обучен для работы с естественным языком и предоставления информации, ответов на вопросы, выполнения задач общего характера и участия в разговорах.

Однако, я могу обсуждать и объяснять основные концепции предикативной логики и помочь вам понять ее принципы и применение в общих чертах. Если у вас есть конкретные вопросы или темы, связанные с предикативной логикой, я постараюсь помочь вам насколько смогу.
alex1101
()

Как я понял, он не умеет ни в какую логику, так как это никакой не интеллект, с точки зрения человека. Вся логика там компьютерная, то есть уровнем ниже.

Если сравнивать с человеком, то у людей тогда тоже есть «телесная» логика, которая принимает миллионы решений в секунду (наверное), но на деле мы это не приписываем себе.

Вот и не будем ИИ приписывать «машинную» логику.

ГПТ — языковая модель, он подставляет слово за словом, случайно выбирая любое из релевантной кучи.

Интереснее другое. Эталоны. Если ему скармливают реддит, то возникает вопрос, а почему не какую-нибудь серьёзную литературу? Разве он не будет таким образом деградировать вместе с людьми?

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

Разве он не будет таким образом деградировать вместе с людьми?

Деградация человечества это один из вполне возможных естественных процессов эволюции. Инструментом ускоряющим этот процесс может выступать и активное использование языковых моделей. Может оно и к лучшему.

vvn_black ★★★★★
()

Я вот не знаю что такое предикаты и не знаю зачем мне это знать. Выглядит как какое-то слово из лексикона древнегреческих мудрецов.

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Есть группа людей разного возраста, часть из них носит красные свитеры. Известно, что командный цвет Спартака - красный. Есть ли в группе людей болельщики Спартака?

ГигаЧат от Сбера не умеет:

Да, есть группа людей, которая носит красные свитера. Если предположить, что все члены группы имеют отношение к команде "Спартак", то можно сделать вывод о том, что они являются болельщиками этой команды. Таким образом, ответ на ваш вопрос: да, в группе есть болельщики Спартака.

А вот ChatGPT ближе, но «осторожничает»:

Исходя из предоставленной информации, нельзя однозначно сказать, являются ли люди в группе болельщиками Спартака. Но возможно, некоторые из них могут быть болельщиками этой команды, так как носят красные свитеры, которые ассоциируются с командным цветом Спартака. Однако, чтобы с уверенностью утверждать, что в группе есть болельщики Спартака, необходима дополнительная информация, например, их заявления о своей приверженности к команде или другие связанные с этим индикаторы.
vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)
Ответ на: комментарий от papin-aziat

а почему не какую-нибудь серьёзную литературу?

Наверное, это просто дорого - купить электронные версии всех хороших книг, чтобы скормить их нейронке.

Хотя я не уверен, что её не обучают на книгах.

alex1101
()
Ответ на: комментарий от alex1101

Так то, классика вся давно в общественном достоянии. Но с другой стороны, оцифрованная копия может стоить денег, именно копия, а не содержимое.

vvn_black ★★★★★
()
Ответ на: комментарий от vvn_black

Очередной пример, как копирастия тормозит прогресс. Йохохнули бы книги с торрентов - и дело в шляпе.

alex1101
()
Известно, что из набора предметов все шары синего цвета. Верно ли утверждение, что если в этом наборе есть синий предмет, то он будет шаром?

Гигачат понесло:

Нет, неверно утверждение, что если в этом наборе есть синий предмет, то он будет шаром. Шаром называется объект, который имеет форму сферы и не имеет отверстий или краев. Из вашего примера невозможно сделать вывод о том, что если в наборе есть синий предмет, то он является шаром. В данном случае у нас есть набор из трех предметов: двух шаров (одного синего и одного красного) и одной фигуры (неопределенной формы). Невозможно однозначно сказать, что эта фигура является шаром, так как она может иметь как отверстия, так и края.

ЧатГПТ на высоте:

Нет, утверждение о том, что если в наборе есть синий предмет, то он будет шаром, не является верным. Известно только то, что все шары в наборе синего цвета. Однако, в наборе могут присутствовать и другие предметы, которые также синего цвета, но не являются шарами. Таким образом, наличие синего предмета в наборе не гарантирует, что это будет шар.

Опять же, по ответу гигачата становится понятно, что о «рассуждениях» нет никакой речи, только вероятности и релевантные токены, а вот чатгпт умело скрывает это.

Upd. Алиса тоже справилась с «шарами» - «утверждение неверно, потому что необязательно синий предмет является шаром.»

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)
Ответ на: комментарий от firkax

Предикат — это мнение говорящего о субъекте высказывания. Субъект (в данном случае) — слово «предикат». «Мнение говорящего о субъекте высказывания» — предикат (в данном утверждении).

Самое простой способ запомнить, что такое предикат, это запомнить, что оно по сути равно сказуемому.

papin-aziat ★★★★★
()
Ответ на: комментарий от firkax

Я вот не знаю что такое предикаты

А по мне, это разновидность сусликов.

utanho ★★★★★
()
Ответ на: комментарий от vvn_black

только вероятности и релевантные токены

Вот и у меня подозрения, что просто «мягкие вычисления» туда зашили, обернув в вычислительную схему персептрона.

Mirage1_
() автор топика
Последнее исправление: Mirage1_ (всего исправлений: 1)
Ответ на: комментарий от alex1101

купить электронные версии всех хороших книг, чтобы скормить их нейронке.

Давно пора это сделать хотя бы на базе ПРОЛОГ.

Mirage1_
() автор топика
Последнее исправление: Mirage1_ (всего исправлений: 1)
Ответ на: комментарий от alex1101

Хотя я не уверен, что её не обучают на книгах.

Донцовой. :)

anc ★★★★★
()

да, лучше среднего человека

umren ★★★★★
()
Ответ на: комментарий от vvn_black

Мне иногда, кажется, что тут на форуме присутствуют такие, кто делает вид, что не умеет в логику и даже пытается выставить в негативном свете тех, кто пользуется логикой, и хвастается своим якобы отсутствием логики. Т.е. рекламирует свое алогичное поведение фразами типа «логичный ты мой». Даже в этих фразах сквозит отсутствием логики.

sanyo1234
()
Ответ на: комментарий от alex1101

Как модель искусственного интеллекта, я основан на алгоритме GPT-3.5, …

Интересует такой тонкий момент: а какую роль в этом «алгоритме» играют «плагины» для подключения в определенных случаях естественного интеллекта )) А вы все не задумывались над тем, что вся эта GPT-шная пиар-компания может быть очередным лохотроном по типу ковидного?)

vinvlad ★★
()
Ответ на: комментарий от Mirage1_

Вот и у меня подозрения, что

Не нужно подозревать. В паблик выложили модель llama. Можешь точно посмотреть как она устроена. Про gpt 3 тоже всё известно.

ox55ff ★★★★★
()

Умеет ли ChatGPT в предикативноую логику?

ChatGPT пока не использую.

Почему?
Необходимости в его использовании нет.

Forum0888
()
Ответ на: комментарий от papin-aziat

Самое простой способ запомнить, что такое предикат, это запомнить, что оно по сути равно сказуемому.

Предика́т ( n n-местный, или n n-арный) — это функция с множеством значений { 0 , 1 }(или {ложь, истина}), определённая на множестве M = M 1 × M 2 × … × M n. Таким образом, каждый набор элементов множества M характеризуется либо как «истинный», либо как «ложный».

Предикат можно связать с математическим отношением: если кортеж ( m 1 , m 2 , … , m n ) принадлежит отношению, то предикат будет возвращать на нём 1. В частности, одноместный предикат определяет отношение принадлежности некоторому множеству.

Предикат — один из элементов логики первого и высших порядков. Начиная с логики второго порядка, в формулах можно ставить кванторы по предикатам.

Предикат называют тождественно-истинным и пишут:

P ( x 1 , . . . , x n ) ≡ 1 

если на любом наборе аргументов он принимает значение 1.

Предикат называют тождественно-ложным и пишут:

P ( x 1 , . . . , x n ) ≡ 0 

если на любом наборе аргументов он принимает значение 0.

Предикат называют выполнимым, если хотя бы на одном наборе аргументов он принимает значение 1.

Так как предикаты принимают только два значения, то к ним применимы все операции булевой алгебры, например: отрицание, импликация, конъюнкция, дизъюнкция и т. д.

vaddd ★☆
()
Ответ на: комментарий от ox55ff

Скачай этот «лохотрон» себе на комп и запусти, если не веришь.

Прежде чем давать такие советы, скачайте сами себе на комп - если сможете :) Там же не только «алгоритм» скачать надо, но и все «настроечные» данные )) Ну а потом, естественно отключившись от Интернета, позадавайте какие-нибудь умные вопросы.

Ваш ответ, как нельзя лучше, демонстрирует излишнюю доверчивость, основанную на изначально ложных предположениях - типа, что «можно скачать себе на комп» )

vinvlad ★★
()
Последнее исправление: vinvlad (всего исправлений: 1)
Ответ на: комментарий от vaddd

Так как предикаты принимают только два значения, …

Вообще говоря, давно уже существуют и модальные логики - просто их не включают в программы большинства ВУЗ-ов. Там все не ограничивается только значениями «true» и «false».

vinvlad ★★
()
Ответ на: комментарий от vinvlad

Именно так я и сделал. Можешь лично прикоснуться к прекрасному https://habr.com/ru/articles/728298/. Есть варианты для запуска на ЦПУ. В зависимости от размера модели нужно будет до 32 ГБ оперативки, чтобы запустить.

ox55ff ★★★★★
()
Ответ на: комментарий от vinvlad

просто их не включают в программы большинства ВУЗ-ов

Отчего же не включают, в большинстве вузовских учебников есть и многозначная логика, и модальная и другие - и в учебниках по философии, и в учебниках по математике. Просто не слишком углубляются

vaddd ★☆
()
Ответ на: комментарий от vaddd

… Просто не слишком углубляются

В учебниках-то есть, а вот в сознании большинства людей почему-то присутствует только двузначная логика.

vinvlad ★★
()
Ответ на: комментарий от vinvlad

Присутствует, только неосознанно ) «Придешь ко мне потрахаться/на пиво?» - «Ну я не знаю, скорее нет, чем да»

vaddd ★☆
()
Ответ на: комментарий от ox55ff

Именно так я и сделал …

Ну не знаю… я бы относился к этому делу, разве что, как к гуглу следующего поколения - не более. Гугл, правда, надежнее - поскольку он дает ссылочки на исходные источники.

vinvlad ★★
()
Ответ на: комментарий от ox55ff

В паблик выложили модель llama.

А с 1980-х годов что-то существенное, кроме свёрточных нейронных сетей появилось для такого подхода?

i_am_not_ai
()
Ответ на: комментарий от ox55ff

Да. Трансформеры.

Некий аналог самомодифицирующегося кода (code wars)?

i_am_not_ai
()
Последнее исправление: i_am_not_ai (всего исправлений: 1)
Ответ на: комментарий от papin-aziat

Понятия не имею. Но если что-то сравнительно формализуется подобным образом, то легко научится.

vaddd ★☆
()
Ответ на: комментарий от papin-aziat

ГПТ — языковая модель, он подставляет слово за словом, случайно выбирая любое из релевантной кучи.

Вообще-то она умеет решать логические задачи, решение которых одним только генерированием слов из похожих текстов не получишь.

Ты, видимо, не работал с GhatGPT и не знаешь на что она способна.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

Ты, видимо, не работал с GhatGPT и не знаешь на что она способна.

Угу, я из-за этой штуки уже гуглить перестал и копаться в трансляторах и словарях…

Вообще-то она умеет решать логические задачи, решение которых одним только генерированием слов из похожих текстов не получишь.

Почему не получишь? Например 2+2=? Чтобы ответить на этот вопрос не обязательно учить арифметику, если ты можешь быстро прошерстить (или уже прошерстил) кучу реальных ответов на этот вопрос. В данном случае у него даже вариантов на выбор не будет. Вот как я понимаю выражение «языковая модель».

В данном случае это опять слизано с человека, ведь мы редко размышляем и ещё реже ищем новое, мы просто берём готовые варианты из памяти или конструируем из того, что есть в этой памяти по принципу наибольшей вероятности и… лажаем. Такую же ахинею несёт и чат (прям как настоящий несистемно начитанный ребёнок).

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

Дважды два говоришь?

Ну вот я придумываю задачки из головы, и она решает:

User
На тарелке лежало 108 косточек. Треть косточек забрали. Из оставшегося количества половину поставили прорастать. Все косточки проросли и их посадили в землю. Сколько деревьев должно взойти при хорошем уходе за посадкой?

ChatGPT
Если изначально на тарелке было 108 косточек, то треть косточек, которые забрали, будет равна (1/3) * 108 = 36 косточкам.

Оставшееся количество косточек будет равно 108 - 36 = 72 косточки.

Половину от 72 косточек поставили прорастать, что составляет (1/2) * 72 = 36 косточек.

Таким образом, в землю было посажено 36 деревьев, при условии, что все косточки проросли и были посажены. Однако, не все проросшие косточки могут превратиться в здоровые деревья. Кроме того, для хорошего ухода за посадкой необходимо учитывать множество других факторов, таких как вода, питание, условия окружающей среды и т. д.



Задача с ненужными данными (100 досок):

User
Реши задачку: Для забора было заготовлено 100 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?

ChatGPT
Работник сделал 7 циклов, каждый раз в левой руке держал по одной доске, а в правой - по две, то есть перенес 7*(1+2) = 21 досок. Затем он принес еще одну доску, итого работник перенес 21 + 1 = 22 доски. Ответ: 22 доски.



Та же задача с противоречием:

User
Реши задачку: Для забора было заготовлено 15 досок. Работник брал в левую руку одну доску, а в правую две доски, и нес их к месту установки забора. Так он повторил семь раз, а потом принес еще одну доску. Сколько всего досок он перенес?

ChatGPT
Работник брал по одной доске в левую руку и по две доски в правую руку, и он повторил это семь раз. Это означает, что он перенес 7 × (1 + 2) = 7 × 3 = 21 доску. После этого он принес еще одну доску, что добавляет еще одну доску к общему количеству. Итак, всего работник перенес 21 + 1 = 22 доски.

User
Как он мог перенести 22 доски, если изначально их было 15?

ChatGPT
Задача, как она была представлена, содержит в себе противоречие, и правильный ответ состоит в том, что работник не мог перенести больше досок, чем было изначально. Исходя из начального количества досок, равного 15, нельзя перенести 22 доски или любое другое количество, превышающее 15.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

Дважды два говоришь? …

https://www.cnews.ru/news/top/2023-05-02_ssha_vydali_patent_na_rossijskij

«Нейросети замечательно извлекают информацию из примеров, но их практически невозможно научить непреложным законам физики или математики, — рассуждает Владимир Львович Арлазаров. — Показательны недавние упражнения сети ChatGPT в арифметике. При умножении больших чисел сеть правильно указывает первые и последние цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”. Довольно забавный результат, ведь для правильного решения требуется в миллиарды раз меньше ресурсов, чем те, что есть в распоряжении у нейросети. Встает вопрос: а можно ли вообще изучать математику на примерах?».

vinvlad ★★
()
Ответ на: комментарий от vvn_black
Украли у мужика корову. Приходит он домой и говорит сыновьям:
- У нас корову украл какой-то черт. Старший брат: — Если черт — значит маленький.
Средний брат: — Если маленький — значит из Малиновки.
Младший Брат: — Если из Малиновки — значит Васька Косой.
Все выдвигаются в Малиновку и там прессуют Ваську Косого.
Однако Васька корову не отдает. Его ведут к мировому судье.
Мировой судья:
- Ну… Логика мне ваша непонятна. Вот у меня коробка, что в ней лежит?
Старший брат: — Коробка квадратная, значит внутри что-то круглое.
Средний: — Если круглое, то оранжевое.
Младший: — Если круглое и оранжевое, то апельсин.
Судья открывает коробку, а там и правда апельсин.
Судья — Ваське Косому:
- Слышь, черт, отдай корову.
crutch_master ★★★★★
()
Ответ на: комментарий от vinvlad

Посмотрим как будет рассуждать Владимир Львович Арлазаров когда ChatGPT соединят в Wolfram Alpha, процесс уже идет.

Xintrea ★★★★★
()
Ответ на: комментарий от Xintrea

Ну, арифметике-то можно научить - алгоритмически :) - а вот каким-то реально творческим мыслительным процессам - это вряд ли.

vinvlad ★★
()
Ответ на: комментарий от vinvlad

а вот каким-то реально творческим мыслительным процессам

Чем тебе не мыслительный процесс:

Предикаты в классической логике (комментарий)

Это не компиляция из текстов, как думает papin-aziat.

Ну а что касается творчества, то генерация картинок уже давно все доказало, что такое творчество. Сейчас подтягивается музыка и 3D.

Xintrea ★★★★★
()
Последнее исправление: Xintrea (всего исправлений: 1)
Ответ на: комментарий от Xintrea

Чем тебе не мыслительный процесс …

Ну, это весьма примитивный процесс последовательного уточнения понятий по ходу чтения текста задачи. Я же про другое…
Теорфизиком или математиком ChatGPT явно не станет ))

vinvlad ★★
()
Ответ на: комментарий от Xintrea

Во-первых, я не вижу принципиальной разницы между 2+2 и твоими задачками. Во-вторых, я согласен с тобой, что выглядит всё как будто бы оно думает и решает, но оно не думает и не решает, оно подставляет слова (за что купил, за то и продаю, я не спец).

Ясное дело, в ситуации, где задачу можно сформулировать математически, оно просто тебе посчитает, обращаясь к вычислительным возможностям компьютера. Если математика не работает, то будет подставлен вероятный вариант из набора шаблонов, сформированных из высказываний, написанных или сказанных людьми.

Тут мы имеем дело с твоим восприятием и оно безусловно истинно, если находится в пределах экологии, если же твоя мысль о разумном компьютере начнёт нарушать экологию людей, то мы скажем, что тебе пора остановиться.

Когда ты описываешь возможности чата, то ты используешь естественный язык и неизбежно безбожно антропоморфизируешь, тогда как в этом вопросе надо быть более точным и отказаться от глаголов уметь, думать и тд по отношению к машине. Языковая модель – это мимикрия общения, на самом деле ты ни с кем не разговариваешь и на том конце провода никого нет.

Я не собираюсь критиковать слабые места языковой модели (да я и не компетентен, хотя они и лежат на поверхности), поэтому остановлюсь на сильных. Прелесть этой штуки не в способности решать задачи, а в возможности иметь под рукой «говорящий книжный шкаф», к которому можно с помощью грамотно (относительно возможностей модели) сформулированных запросов обращаться за компиляциями на тему, чтобы толкнуть мысль в другом направлении или уточнить свою.

Таково моё мнение о ЧатГПТ-3

papin-aziat ★★★★★
()
Ответ на: комментарий от Xintrea

генерация картинок уже давно все доказало, что такое творчество. Сейчас подтягивается музыка

Зачем же так обнаруживать своё совершенное непонимание искусства?

papin-aziat ★★★★★
()
Ответ на: комментарий от Xintrea

задачки из головы, и она решает

Твои задачки из головы очень шаблонны, таких задачек 100500+ на просторах интернета. Очевидно нейросетка смогла выделить из них паттерны и научиться их «решать». Но как только ты в последнем примере слегка вышел за шаблон, то она сразу споткнулась.

foror ★★★★★
()
Ответ на: комментарий от vinvlad

цифры результата, и даже угадывает его длину, а вот центральные цифры ставит “от балды”

Оно не угадывает длину. Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор». Но он не всегда верной вычисляет. Поэтому если попросить пересчитать результат, то со второй попытки можно получить верный результат.

foror ★★★★★
()
Ответ на: комментарий от foror

Оно как смогло построило калькулятор на нейронках и когда требуется вычислений отправляет данные на этот «калькулятор».

Тут вот сказали, что в очередной версии планируют снабдить это «оно» правильным внешним калькулятором :) Вот только вопрос: а всегда ли «оно» будет обращаться к услугам правильного калькулятора?)

vinvlad ★★
()
Ответ на: комментарий от vinvlad

Так нейронка это вероятностная фигня, она тебе не гарантирует 100% правильный ответ в отличии от того же сумматора на транзисторах.

Тот же человек, даже ученый часто ошибается. Схожая архитектура. Но думаю нейронка сможет по итогу ошибаться меньше человека.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

… Но думаю нейронка сможет по итогу ошибаться меньше человека.

Тут несколько разный характер ошибок. Человек, конечно, тоже ненадежное существо - его «сбои» это действительно «вероятностная фигня», если не учитывать какие-то особые случаи. А вот неверно обученная нейронная сетка в одной и той же фатальной ситуации будет сбоить детерминировано - ну т. е. сбой будет прогнозируемым.

vinvlad ★★
()

оч похоже, что chatgpt для этого исп coq, который подстраивается под конкретную область

ustas1
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)