LINUX.ORG.RU

Открыта закрытая бета OpenAI Codex

 ,


0

0

Коммерческая компания OpenAI, управляемая советом директоров некоммерческой организации OpenAI Nonprofit, приглашает к закрытому тестированию искусственного интеллекта OpenAI Codex, создающего программный код на основе инструкций в формате естественного (и в настоящий момент — английского) языка. При обработке учитывается контекст предыдущих инструкций.

На опубликованных видео модель продемонстрировала способность сделать почтовую рассылку с текущим курсом Bitcoin'а на Python и создать простенькую игру с человечком, убегающим от падающего камня на HTML и JavaScript.

>>> Live Demo

>>> Подробности

★★★★★

Проверено: Shaman007 ()
Последнее исправление: xaizek (всего исправлений: 1)
Ответ на: комментарий от anonymous

Ты не понимаешь. Верующие огорожены законом «о защите чувств». И я всего лишь хочу знать твой статус, потому что обсуждаемый вопрос может рассматриваться как «чувствительный».

aist1 ★★★
()
Ответ на: комментарий от aist1

Верующие огорожены законом «о защите чувств».

Отличный отмаз - анонимы на форуме огорожены законом. Какого государства, каким законом, какие статьи?

Я, государь-аноним, указываю, что ты можешь безответственно задавать анонимам «чувствительные» вопросы и писать «чувствительные» ответы. Да будет так. Аминь.

anonymous
()
Ответ на: комментарий от anonymous

Не анонимы, а верующие, независимо от их регистрации. Огорожены российскими (и не только) законами. Безопасность подразумевает отказ от свобод. Конкретно в твоем случае есть подозрение, что ты — тот самый аноним, который любит топить за Бога. Вот и всё. В отношении регистрантов такого подозрения нет, потому что там отслеживается идентичность.

aist1 ★★★
()
Ответ на: комментарий от aist1

Суд. Дело «Неизвестный, неизвестно верующий ли, был оскорблен чувствительным вопросом, который не был задан». Сторону неизвестного представляет (подменяет) отсутствующее определение разницы машины и человека.

anonymous
()
Ответ на: комментарий от anonymous

Совершенно верно. Театр абсурда. Но это — наша жизнь.

В общем, если тебя разберет любопытство, то you are welcome — ответь на мой вопрос и я объясню тебе про аргументы. Узнаешь кое-что новое, чем потом можешь троллить местных регистрантов :)

Верующие стоят на позиции дуализма и «съехать» с неё не могут под страхом или отречения от веры, или впадения в ересь (что еще хуже). Для верующего машина иметь души не может, и нечего тут обсуждать. Потом богословы опять что-нибудь придумают, чтобы как-то вписать новую реальность в религиозную картину мира. Но это будет потом.

aist1 ★★★
()
Ответ на: комментарий от aist1

Для верующего машина иметь души не может

Я сегодня дождусь твоего определения разницы машины и человека, а не то, что ты думаешь, как думают верующие?

anonymous
()
Ответ на: комментарий от aist1

Извините за «чувствительный» вопрос. Вы еврей?

Но я настаиваю. Как ты различаешь людей от машины? «Что есть у человека, что различает его от машины?»

anonymous
()
Ответ на: комментарий от anonymous

Нет, я самоидентифицируюсь как не-еврей. Я — русский. Но гаплогруппа может сказать иначе. «Поскреби русского, найдешь татарина».

aist1 ★★★
()
Ответ на: комментарий от aist1

Я — русский.

И поэтому машину, которая с тобой сейчас переписывается, ты различаешь от человека, потому что…

anonymous
()
Ответ на: комментарий от aist1

То есть искусственного (искусственный - это созданный человеком) не может быть по определению. Так как сами то-ли-человеки-то-ли-машины не могут определить машины они или человеки. Интеллект - он и в Африке не искусство. Расходимся.

anonymous
()
Ответ на: комментарий от anonymous

Типа того. Это, по большей части, вопрос конвенции.

Мы до совсем недавнего времени считали, что животные не обладают сознанием. А теперь некоторые виды даже считаем личностями.

Теста на сознание, как такового, нет. Я считаю, что у тебя есть сознание для того, чтобы ты считал, что оно есть у меня. Это и есть конвенция.

Тем не менее, некоторые критерии уровня сложности когнитивной архитектуры ввести можно, чтобы иметь суждение о том, на что конкретная машина способна, а на что — нет.

aist1 ★★★
()
Ответ на: комментарий от AndreyKl

Там задача не совсем честная если я правильно понял доказательство от противного.

Машину Тьюринга не решаемую нашим гипотетическим решателем строят поверх него же. Это как если бы человеку воткнули в мозг достаточно много элетродов и попросили например выбрать предмет, другой чем программа читающая данные с мозга.

Leron ★★
()
Ответ на: комментарий от aist1

А теперь некоторые виды даже считаем личностями.

Личность - это тот, с кем взаимодействует (общается на равных) другая личность. Главное отметить первую личность (то есть себя любимого). Можно и с машинами общаться на равных, можно и с «экраном с кнопочками», можно кустом розы, можно с духом, можно с богом.

сознание

Я - личность. У меня есть сознание. И взаимодействую на равных с экраном с кнопочками. У равного мне собеседника должно быть все, что у меня есть: личность, сознание. Но так и не узнал, чем машина отличается от человека.

И вся эта шиза обеспечена энергией. Пока в основном энергией химической связи. Вот когда обуздаем термояд, вот тогда всех бессознательных безличностей разбомбим.

anonymous
()
Ответ на: комментарий от Leron

Полезней было бы знать ответ на вопрос можно ли сделать решатель проблемы останова для конечных множеств машин Тюнинга. Такие множества могут быть большими, например все программы длинной меньше 10^1000 символов

Leron ★★
()
Ответ на: комментарий от Leron

Это всё на самом деле не важно для задач алгоритмической индукции. Потому что там мы упираемся в физический бюджет вычислений гораздо раньше, чем мы упремся в проблему остановки. Скажем, у нас есть триллион операций на всё про всё. И все паттерны, которые мы успеем за это количество операций найти в данных — оно наше.

Проблема остановки полувычислима в том смысле, что мы можем (в пределе) определить все МТ, которые рано или поздно остановятся.

Гёделев аргумент против Сильного ИИ был популярен в 70-80х. По инерции его всё еще повторяют в популярных терках. Но он, на современном уровне понимания Сильного ИИ, уже не применим.

aist1 ★★★
()
Ответ на: комментарий от aist1

Т.е., вообще говоря, Гёделев аргумент очень трудно применить для критики вычислительных теорий разума.

Кажется, называть их [[и теориями] [и разума]] пока что рука не поднимается. Или я отстал от жизни?

AndreyKl ★★★★★
()
Ответ на: комментарий от AndreyKl

Тут просто нужно пояснить. Не все теории научны. «Коля любит Олю, потому что у Оли много денег» — это каузальная теория, обозначающая причину и следствие. Теория разума — это система объяснений ментальных состояний. Вычислительные теории разума пытаются объяснить переживания с помощью вычислений и их специальной формы — программ.

„Лучший способ в чём-то разобраться до конца — это попробовать научить этому компьютер.“ —  Дональд Кнут

Теперь ты знаешь всё)

aist1 ★★★
()
Последнее исправление: aist1 (всего исправлений: 2)
Ответ на: комментарий от Nervous

Уровень аргументации «правоверный».

ты как был дурачком так и остался.

AndreyKl ★★★★★
()
Ответ на: комментарий от Leron

Хм, я не уверен что понимаю о чём именно речь (т.е. я не знаком с доказательством о котором ты говоришь), но хочу обратить твоё внимание, что доказательство неразрешимости проблемы останова для МТ точно такое же по сути как ты описал: сначала мы берём две программы: П1 и П2. П1 должна понять остановится ли П2. И далее фокус, мы натравливаем П2 на выхлоп П1 и если П1 сказала что П2 остановится, то П2 просто зависает. А если П1 сказала что П2 зависнет, то П2 выходит.

Таким образом получается что П1 не сможет предсказать поведение П2, потому что сначала П1 говорит предсказание, а потом П2 делает противоположное сказанному.

Т.е. схема один в один с тем что ты описал. Уж не знаю что это значит в том случае который ты описываешь.

AndreyKl ★★★★★
()
Последнее исправление: AndreyKl (всего исправлений: 3)
Ответ на: комментарий от Leron

Вопрос на первый взгляд кажется интересным. Но лично мне кажется более интересным подход когда нельзя написать зависающую программу благодаря системе типов языка.

AndreyKl ★★★★★
()
Ответ на: комментарий от AndreyKl

нельзя написать зависающую программу благодаря системе типов языка.

И этот язык по «мощности» будет как регулярные выражения - неполным Тьюрингу.

anonymous
()
Ответ на: комментарий от AndreyKl

Да само доказательством понятно. Другое дело что если допустить такое построение контрпримеров через сам решатель, то многие проблемы становятся неразрешимыми, большинство игр например делаются человеконеразрешимыми. В этом плане доказательство даёт нам мало новой информации о природе алгоритмов.

Leron ★★
()
Ответ на: комментарий от anonymous

Есть мнение и не только моё что в промежутке между этим языком и полными по тьюрингу программами интересных программ нет.

AndreyKl ★★★★★
()
Ответ на: комментарий от aist1

Decriptive Logic же. Всегда разрешима и довольно таки выразительна.

Если она всегда разрешима, то должна быть эквивалентна логике первого порядка. А это не густо, честно говоря.

Но повторюсь, для программиста с точки зрения возможности выразить программы нет (или почти нет) разницы между системами типов соотвествующими логике высшего порядка и тьюринг-полными языками программирования.

AndreyKl ★★★★★
()
Ответ на: комментарий от AndreyKl

Строго говоря, реальные цифровые компьютеры тоже не полны по Тьюрингу, так как память ограничена.

В плане же всегда разрешимых языков можно взять ту же дескриптивную логику и поглядеть, чем она отличается от логики первого порядка. Что может последняя, чего не может первая.

Как я уже выше сказал, бодания с разрешимостью особого смысла не имеют, когда речь идет об индуктивном выводе программ. Мы гораздо раньше упремся в power wall, чем в проблему остановки.

aist1 ★★★
()
Ответ на: комментарий от AndreyKl

Интересных кому? Тут программы конфигурируют на Тьюринг-полных языках.

anonymous
()
Ответ на: комментарий от aist1

Разрешимость логики обычно волнует тех, кто использует логическое программирование. Так как там очень трудно заранее определить, «мы тупо зависли или просто опять долго считаем».

aist1 ★★★
()
Ответ на: комментарий от AndreyKl

Decriptive Logic же

Если она всегда разрешима, то должна быть эквивалентна логике первого порядка.

Судя по вики - это фрагмент (подмножество, часть) логики предикатов (логики первого порядка). «А это не густо, честно говоря.»

anonymous
()
Ответ на: комментарий от anonymous

Но и далеко не регулярки, если ну очень это важно.

Я повторюсь. На мой взгляд куда лучше обычный ЯП + система эмпирических критериев зацикливания, чем гарантированная разрешимость.

aist1 ★★★
()
Ответ на: комментарий от aist1

когда речь идет об индуктивном выводе программ

Я не говорил об индуктивном выводе. Я просто сказал что мне импонирует подход в котором у программиста есть развитые системы типов. Как пример таких языков - кок, агда, идрис. Системы типов эквивалентны логике высших порядков, соотвественно выразительны. Но зависнуть программа не может, т.к. нет тьюринг полноты.

AndreyKl ★★★★★
()
Ответ на: комментарий от anonymous

С каждым твоим сообщением все дальше и дальше от изначального вопроса. Начали про машины среди людей, теперь про людей среди богов.

… а потом, огородами, огородами и к Котовскому …

anonymous
()
Ответ на: комментарий от AndreyKl

Это разные вещи. В полной по Тьюрингу системе типов, как в С++, вывод типов в общем случае невозможен, поэтому компилятору сложно доказывать некоторые свойства систем типов (взаимное соотношение множеств). Но тут те же яйца, только в профиль. Когда мы код компилируем, нас, кроме всего прочего, интересует и время компиляции. И если сравнение типов занимает слишком много времени, то это можно просто трактовать как ошибку.

aist1 ★★★
()

Короче, мы сильно ушли в сторону. Я попробую резюмировать по теме.

Результаты, которые показывает это Codex сами по себе очень хороши, потому что до сих пор такого добиться в автоматическом программировании не получалось: с описания на естественном языке — сразу в работающий код.

Где это можно применять уже сейчас? В QA-автоматизации, например. Есть уйма актуальной работы по написанию простых сценариев проверки инвариантов над функционалом приложения. Есть, опять же, всякие low-code и no-code.

Большая часть программирования, по факту, это low-code. От того, что код пишут люди сеньерского уровня, оно не меняется. Массовое практическое программирование очень простое относительно того, каким оно могло бы быть. На собеседованиях с нас требуют «вращать деревья» или писать неблокирующие очереди, но очень мало кто столкнется с необходимостью это делать на работе.

Стоит ли нам опасаться чего-то прямо сейчас? Нет. Даже на месте QA-щиков я бы пока не напрягался. Автоматизация пока что будет приводить просто к расширению ниши использования программирования. Так как еще очень много чего нужно автоматизировать.

Нкжно ли нам чего-то опасаться в будущем? Да, конечно. Новое железо программировать руками уже не получается (слишком сложно даже для просто многоядерных систем). Так что роль машинного обучения будет только возрастать.

Что можно сделать? Изучать ИИ в широком смысле (не только ML-за-который-платят). Быть в теме, быть актуальным. И всё будет хорошо)

aist1 ★★★
()
Ответ на: комментарий от aist1

Что касается AI-через-ML вообще, и весь этот OpenAI в частности, то ситуация там следующая.

ML долгое время был в полной оопе, и респектабельные люди старались не пачкать свою репутацию такими вещами. Потому что не перспективно. Потом большие дяди решили, что пора на этом тоже зарабатывать, так как железо уже подоспело. Чтобы всё выглядело прилично, оформили как «революцию в машинном обучении».

И по началу этой «революции» сложилась ситуация, когда вокруг много «низковисящих фруктов». Бери железо, применяй, получай результат, лови хайп — профит. Но оказывается, что после того, как низковисящие фрукту сорваны, следующий уровень уже сильно выше. На столько, что сейчас ML двигают уже ребята, у которых много свободных денег и датацентров для борьбы с power wall. Домашний AI-через-ML на своих десктопчиках, чем мы баловались в нулевых — уже фсё. Сейчас это чисто в образовательных целях если только. Для исследований уже не годится.

Так вот, этот Codex — низковисящий фрукт.

aist1 ★★★
()
Ответ на: комментарий от aist1

Большая часть программирования

Это обмануть программу, обойти законы и правила. Оксюморон такой.

anonymous
()
Ответ на: комментарий от anonymous

«Все ушли на фронт», в смысле, в глубокое обучение. На это есть объективные причины. Так как чтобы писать те же онтологии, нужен уже ML. Человеку слишком сложно. Почти весь ИИ сейчас упирается в ML.

aist1 ★★★
()
Ответ на: комментарий от anonymous

Сейчас модно видеокартами квартиры греть.

… и золотые унитазы покупать.

anonymous
()

На опубликованных видео модель продемонстрировала способность сделать почтовую рассылку с текущим курсом Bitcoin’а на Python …

При таком подходе они «каши не сварят» …

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.