LINUX.ORG.RU
ФорумTalks

OpenAI выпустила o1

 , , ,


0

2

https://openai.com/index/introducing-openai-o1-preview/

12 сентября 2024 года OpenAI представила o1 — свою первую ИИ-модель с возможностями «рассуждения». Проект OpenAI o1 в разы производительнее GPT-4o. Новая модель показывает себя в 5 раз лучше в математических задачах и в 6 раз лучше в написании кода, чем GPT-4o.

По данным OpenAI, проект o1 отвечает на запросы и сложные задачи на уровне знаний доктора наук точных дисциплин. Также o1 заточена под соревновательное программирование, олимпиады по математике, точные науки и даже философию.

Разработчики пояснили, что o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек.


Думать может и камень, если мы наделим его такой способностью.

// извините

forest22
()
Последнее исправление: forest22 (всего исправлений: 1)

Разработчики пояснили, что o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек.

Как думает человек до сих пор нет четкого определения. Два разных человека знающие ответ на вопрос, могут дать два разных ответа в зависимости от...

anc ★★★★★
()

на уровне знаний доктора наук точных дисциплин

По ссылке: performs similarly to PhD students

o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек

По ссылке просто написано, что дольше думает над ответом)

В playground пока нету.

goingUp ★★★★★
()
Ответ на: комментарий от goingUp

По ссылке просто написано, что дольше думает над ответом)

По сути да, только лично я пока не понимаю, как оно работает под капотом. Если я все правильно понял, то они просто в каком-то усиленном режиме включили CoT в процесс тренировки. При этом не понятно, как они могли включить его на этапе pretraining, учитывая что тогда параллелизовать в рамках одной последовательности его можно примерно никак. Они упоминают некий large-scale reinforcement learning, возможно что они просто сделали fine tuning с этой самой CoT в большем объеме и с rl

rk-d
() автор топика
Последнее исправление: rk-d (всего исправлений: 2)

По данным OpenAI, проект o1 отвечает на запросы и сложные задачи на уровне знаний доктора наук точных дисциплин.

Простой тест: подсовываем обыкновенный нелинейный дифур второго порядка, который средний выпускник вуза/втуза не интегрирует за полчаса. Если нейросеть интегрирует, то подсовываем систему дифуров с неизвестным в литературе общим решением. Если нет, то ну вы понели (с)

x22 ★☆
()

o1 … по-настоящему думает, как человек.

«Женскую логику» могёт? :)

quickquest ★★★★★
()
Ответ на: комментарий от x22

Подсовывай сразу великую теорему Ферма. Не справился - не мужик.

Я вот уже вижу, что он олимпиадные задачи решает лучше меня. И это меня немножко печалит.

vbr ★★★★
()

Также o1 заточена под соревновательное программирование, олимпиады по математике, точные науки и даже философию.

проект o1 отвечает на запросы и сложные задачи на уровне знаний доктора наук точных дисциплин.

Чего на халяву нашли на то и надрочили. А именно, энциклопедии, тонны книжек по философии и сотни тысяч результатов олимпиад со всеми их решениями, задачами, кодом и возможно эссе на тему как кто и что решал, ну типа с пояснениями.

Разработчики пояснили, что o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек.

Я извиняюсь за сленг, а за базар они пояснили, в смысле как думает человек это всё ещё спорный вопрос ващета, или тут слово пояснили в скобочки надо обернуть? А не хотят ли они сравнить тёплое с мягким? А именно, вариативную сложность системы представить не как вариативную сложность, а как некий процесс мыслительный, ну в смысле, во первых один хрен никто не проверит, даже если дать и исходники и модель на растерзание на потоха, банальная сложность в виде огромного количества возможных состояний просто не даст дать ответа на то что и как там происходит, хотя проследить можно всё от и до каждую мелоч, но в этом смысла нет, физически человек не может удержать в голове состояние нейросетки, метрики тоже не помогут, и почему вопрос, они сами то, откуда знают, как человек оно работает, или нет. Если да, что они конкретно имеют в виду?

К сожалению, сама простота технического вопроса, выраженная в неимоверной сложности конечного результата, даёт возможным маркетологические манипуляции на ровном месте такие что мама не горюй, а ещё хуже, что при этом смешивается, правда, лож, маркетинг и реклама, причём так, что даже за руку не поймаешь ибо хрен ты проверишь практически любое из заявлений.

Мимикрия может быть неотличима от оригинала, но мимикрией оно от этого не перестаёт быть.

Чисто технически молодцы, это здорово что что-то получается. Но это не ИИ, не имеет к нему никакого отношения, ничего там не мыслит и мыслить на данный момент не может по определению, чисто технически. А PseudoOpenNotAI вбросил очередную матетинговую какашку. Действительно, новый чатбот может показывать клёвые результаты и быть полезным, но это точно не то чем они его называют, и точно работает не так как они это описывают.

LINUX-ORG-RU ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

По ссылке приведены примеры его рассуждений. По-мне примерно так же, как человек рассуждает. Конечно это не сильный ИИ, но это большой прогресс в сравнение с предыдущей моделью.

vbr ★★★★
()
Ответ на: комментарий от x22

Простой тест: подсовываем обыкновенный нелинейный дифур

Слишком сложно. Его все еще задачками по арифметике (elementary number theory, в смысле) легко завалить.

Например,

Whether (1000^{100!} - 1) divides (2002^{100!} - 1) ?

– и все, пиздец котенку.

i586 ★★★★★
()
Последнее исправление: i586 (всего исправлений: 1)
Ответ на: комментарий от vbr

Если бы ты был савант, с абсолютной памятью, то мог бы зазубрить все решения всех олимпиад которые когда либо были, а раз зазубрил то можешь их комбинировать так что вариаций станет на порядки больше чем зазубрил и оно бы тебя не победило бы и лучше не сделало. Это из разряда, трактор копает лучше чем я, ну ок. Так и там, чисто механически оно может манипулировать данными в большем объёме и быстрее, ну ок. Нет смысле пытаться прыгнуть выше самолёта, и копать быстрее трактора, как и нет смысла знать больше чем ЭВМ и считать быстрее.

Никого же не ущемляет что БД у википедии может дать ответ на то что не сможет дать ни один человек, быстрее, точнее и подробнее. Никто не печалится от этого. Вот и ты не печалься.

LINUX-ORG-RU ★★★★★
()

4o только вышла, а уже новая. Впрочем хорошо. Время от времени пригождается по работе.

ox55ff ★★★★★
()
Ответ на: комментарий от vbr

По ссылке приведены примеры его рассуждений. По-мне примерно так же, как человек рассуждает.

Это так не работает. (Хотя и не важно, так или не так, главное чтобы тебя устраивала работа программы, если здорово, то почему бы и нет)

Конечно это не сильный ИИ, но это большой прогресс в сравнение с предыдущей моделью.

Прогресс, да. И это здорово. Но ты написал так что ИИ это тоже будет модель, просто пока ещё текущие модели не стали ИИ, это абсолютно неправильная логика. ИИ не может быть моделью, вот просто, нет. Это так не работает. Как не может колесо быть автомобителем, или руль, или педаль, это просто части. Даже хуже, это как надувать матрас, дуешь его , дуешь, ну вот надул, плавает, это конечно не многотонный сохогруз, но это большой прогресс по сравнению с предыдущими надуваниями, вот если я постараюсь его ещё надуть у матраса появится металлический киль, а если ещё дунуть то винт и мотор, а если ещё как посильнее, да качком велосипедным и каюты обустроенные. Вот это вот так звучит, когда говорят о развитии текущих искусственных нейросетей, склоняя к тому что что они это и есть будущий ИИ, а это не так. От слова совсем. Хотя казалось бы.

Не всё так просто. А так да, молодцы, прикольно и чем лучше тем лучше.

LINUX-ORG-RU ★★★★★
()
Последнее исправление: LINUX-ORG-RU (всего исправлений: 1)

o1 отвечает на запросы и сложные задачи на уровне знаний доктора наук точных дисциплин

они наконец нашли мою диссертацию, лол, если на таких ее и обучали, то мы все утонем

Lordwind ★★★★★
()
Ответ на: комментарий от goingUp

По ссылке: performs similarly to PhD students

т.е. по факту - Аспирант. Это кто так весело аспиранта в доктора наук преобразовал? Причем это не только на ЛОРе такая трактовка, это где-то в другом месте надмозговой перевод произошел.

Loki13 ★★★★★
()
Последнее исправление: Loki13 (всего исправлений: 1)
Ответ на: комментарий от unDEFER

Главное, чтобы для разных версий обозначения не совпадали.

forest22
()
Ответ на: комментарий от vbr

Прогресс там разве что в виде наращивания мощности и доработки того, что и так было очевидно уже в первых гпт.

Сильный ИИ это несколько про другое вообще, но его делать никто не собирается, а если и будут делать то не для публикации.

firkax ★★★★★
()
Ответ на: комментарий от anc

Разработчики пояснили, что o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек.

Как думает человек до сих пор нет четкого определения. Два разных человека знающие ответ на вопрос, могут дать два разных ответа в зависимости от...

Пришел в голову пример. Вопрос: «Может ли человек летать?». Один ответит Нет, второй Да. И оба будут правы.

anc ★★★★★
()
Ответ на: комментарий от unDEFER

А что у них вообще с нумерацией версий? Почему o1 круче чем 4o?

Это как до нашей эры и после. :)

anc ★★★★★
()

в 5 раз лучше

о5 25.

dataman ★★★★★
()
Ответ на: комментарий от anc

/me достаёт из кармана пистолет, заряжает его первым попавшимся человеком, производит выстрел, и наблюдает: человек летит, но не летает.

ratvier ★★
()
Ответ на: комментарий от anc

Ну перекликай обратно на русский, примерно то же самое, только без картинок.

ratvier ★★
()
Ответ на: комментарий от ratvier
Рассмотрим выражение:

\[
\frac{1000^{100!} - 1}{2002^{100!} - 1}
\]

Здесь заметим, что числа 1000 и 2002 значительно отличаются друг от друга. Чтобы упростить задачу, обратим внимание на возможные приближения и свойства больших чисел.

Для больших степеней \(a^{100!}\) и \(b^{100!}\), где \(a\) и \(b\) — достаточно большие числа, разница в их величинах становится чрезвычайно велика. Попробуем проанализировать дробь.

Обозначим \(x = 100!\) для краткости. Тогда выражение перепишется так:

\[
\frac{1000^x - 1}{2002^x - 1}
\]

Для малых \(x\) разницу между этими числами можно было бы как-то оценить, но для таких огромных значений как \(100!\), разница между \(1000^x\) и \(2002^x\) будет астрономической.

При приближении дроби для таких больших степеней можно сделать вывод, что:

\[
\frac{1000^x - 1}{2002^x - 1} \approx 0
\]

Итак, с учётом величин чисел, результат задачи можно приближённо считать равным:

\[
\boxed{0}
\]
foror ★★★★★
()
Ответ на: комментарий от ratvier

К o1 у меня нет доступа, это на gpt4o ответ. Но тут обычный человек не поймёт, что этому ботанику надо, а он хочет ещё от бота ответ получить.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

Но тут обычный человек не поймёт, что этому ботанику надо, а он хочет ещё от бота ответ получить.

В целых положительных числах, .ля. .ебилы, .ля. (с)

x22 ★☆
()

Разработчики пояснили, что o1 не просто собирает ответ из слов в датасете, а по-настоящему думает, как человек.

Про «как человек» это маркетинговый буллшит. Но на простейшую проверку которую заваливали сети до нее:«А и Б сидело на трубе, А - упало, Б - пропало. Что осталось на трубе?» отвечает верно «И».

Инференс развернут вот тут, можно поиграться. Добавьте ссылку в новость если посчитаете нужным.

Obezyan
()
Ответ на: комментарий от rk-d

возможно что они просто сделали fine tuning с этой самой CoT в большем объеме и с rl

Именно так и сделали, только не просто абстрактные CoT, а конкретно STEM.

Obezyan
()
Ответ на: комментарий от unDEFER

Почему o1 круче чем 4o?

Потому что не ничего круче константной сложности O(1) алгоритма.

Obezyan
()

а по-настоящему думает, как человек.

Что, уже и посылать спрашивающих может?

Tigger ★★★★★
()
Ответ на: комментарий от x22

В целых положительных числах, .ля. .ебилы, .ля. (с)

Я всё ещё не до конца понял, что хочет от gpt4o этот мешок с мясом, но если и понял, то gpt4o и подавно:

Таким образом, можно сделать вывод, что: не делится

foror ★★★★★
()
Ответ на: комментарий от foror

Вот что выдаёт, но я не математик, а пограммист, так что пусть тут математики проверяют:

Для того чтобы определить, делится ли (1000^100! - 1) на (2002^100! - 1), рассмотрим задачу с точки зрения теории чисел, а именно — теорем о делимости разности степеней.

### Общий подход

Мы знаем, что:

(2002^100! - 1) / (1000^100! - 1)

делится, если существуют такие взаимосвязи между числами 1000 и 2002, что 1000^n - 1 делит 2002^n - 1 для n = 100!.

### Теорема о делимости разности степеней

Известная теорема о делимости разности степеней гласит:

a^n - 1 делит b^n - 1 тогда и только тогда, когда a делит b.

Таким образом, чтобы проверить, делится ли (1000^100! - 1) на (2002^100! - 1), нам нужно проверить, делится ли 1000 на 2002.

Однако:

2002 = 1000 * 2 + 2

То есть, 1000 **не делит** 2002 (поскольку остаток 2 отличен от нуля).

### Вывод

Поскольку 1000 не делит 2002, выражение (1000^100! - 1) **не делит** (2002^100! - 1).

Ответ:

Нет, не делится.
foror ★★★★★
()

по-настоящему думает, как человек

Чтобы по настоящему думать, нужен элемент случайности. Вот когда к ИИ приделают квантовый сопроцессор…

greenman ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

Никого же не ущемляет что БД у википедии может дать ответ на то что не сможет дать ни один человек

БД у вики наполняли люди, так что с «не сможет дать ни один человек» приминительно к единичным запросам вы погорячились.

anc ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)