LINUX.ORG.RU

Открыта закрытая бета OpenAI Codex

 ,


0

0

Коммерческая компания OpenAI, управляемая советом директоров некоммерческой организации OpenAI Nonprofit, приглашает к закрытому тестированию искусственного интеллекта OpenAI Codex, создающего программный код на основе инструкций в формате естественного (и в настоящий момент — английского) языка. При обработке учитывается контекст предыдущих инструкций.

На опубликованных видео модель продемонстрировала способность сделать почтовую рассылку с текущим курсом Bitcoin'а на Python и создать простенькую игру с человечком, убегающим от падающего камня на HTML и JavaScript.

>>> Live Demo

>>> Подробности

★★★★★

Проверено: Shaman007 ()
Последнее исправление: xaizek (всего исправлений: 1)
Ответ на: комментарий от AndreyKl

Писать программы как человек оно не сможет никогда. Это закон природы.

Нет такого закона природы. Его просто натравят на пару петобайт кода, и оно будет знать всё.

shpinog ★★★★
()
Ответ на: комментарий от AndreyKl

В доке2 тоже так думали, игра будет посложней любых шахмат на несколько порядков. Да, оно не играло как люди, хоть и училось на матчах людей. По итогу оно придумало свой уникальный стиль игры, и всем людям дало просраться. Они тоже думали что они «профи», учились по 10 лет, но не помогло.

shpinog ★★★★
()
Ответ на: комментарий от WatchCat

Эх, не успел сам написать. Но мысли сошлись, и это радует!

anonymous
()
Ответ на: комментарий от shpinog

На следующей неделе ты собираешь бутылки у местной помойки

Говорят, «мусорный бизнес» в последнее время стал очень прибыльным.

anonymous
()
Ответ на: комментарий от shpinog

Так это же их ИИ нагнул всех киберспортсменов в Доке2

Опять ученый изнасиловал журанилста. Выиграли best-of-three один раз, играя по специальным правилам :)

Gary ★★★★★
()
Ответ на: комментарий от AndreyKl

Увы, даже создание простых сайтиков это на порядок сложнее продемонстрированного в видео. Максимум, что сделают - это по сути ide с продвинутым дополнением кода с последующей проверкой и модификацией хуманом. Выше уже писали, почему Открыта закрытая бета OpenAI Codex (комментарий) Ну и естественно, заказчики не смогут даже родить ТЗ вида «Delete all initial spaces», поэтому этим пользоваться будет программист.

goingUp ★★★★★
()
Последнее исправление: goingUp (всего исправлений: 1)
Ответ на: комментарий от Gary

Опять ученый изнасиловал журанилста. Выиграли best-of-three один раз, играя по специальным правилам :)

Не один раз. В начале нагнуло всех 1х1, потом нагнуло всех 5х5. Под всеми я подразумеваю топов.

Выиграл в сухую.

shpinog ★★★★
()
Ответ на: комментарий от Gary

И выиграл один «игрок» команду из людей.

anonymous
()
Ответ на: комментарий от goingUp

Максимум, что сделают - это по сути ide с продвинутым дополнением кода с последующей проверкой и модификацией хуманом.

По сути именно это и нужно чтобы отделить верстальщика от программиста.

AndreyKl ★★★★★
()
Ответ на: комментарий от shpinog

оно придумало свой уникальный стиль игры

Агрессивный стиль игры основанный на мгновенном контроле и синхронизации взаимодействия? Победила за счет имбовой коммуникации?

anonymous
()
Ответ на: комментарий от shpinog

Не один раз. В начале нагнуло всех 1х1, потом нагнуло всех 5х5. Под всеми я подразумеваю топов.

Под всеми ты подразумеваешь два матча в 2019-м по особым правилам. Причем человеческой команде не дали сыграть реванш, хотя они пообещали стабильно нагибать ИИ через 5-15 матчей :) Вангую, что это бы и произошло.

Уже молчу про игру по общим правилам :)

Gary ★★★★★
()
Ответ на: комментарий от Gary

Следующего раза в реальной жизни не будет. Следующий раз OpenAI то же бы дали прсле обучения?

shpinog ★★★★
()
Ответ на: комментарий от Gary

В StarCraft2 было что-то подобное. Сделали ИИ, другая фирма, получилось хуже, чем хотелось, но они не дураки, вышли из положения путем манипулирования со статистикой, и прорекламировались, и хайпанули) Бот после этого больше не играл) Если интересно https://www.youtube.com/watch?v=mpAUufSzaUo

goingUp ★★★★★
()
Последнее исправление: goingUp (всего исправлений: 1)
Ответ на: комментарий от AndreyKl

Это закон природы. (Неразрешимость большого класса алгоритмических задач).

А ты думаешь, что человек их решает за счет выделенного канала в астрал? Если человек их решает, то почему машина не может?

aist1 ★★★
()
Ответ на: комментарий от Gary

Да, там еще много чего было «нечестного». Но тут ничего не поделаешь. Во всех областях, где важна скорость реакции в широком диапазоне, машина человека зарулит. У нас есть фундаментальные ограничения.

aist1 ★★★
()
Ответ на: комментарий от goingUp

https://www.youtube.com/watch?v=mpAUufSzaUo

Явно видно, что тупо переучивали читерский вариант под честные правила игры, когда надо честно смотреть на экран и честно видеть невидимого противника на экране. Не разведывает свою базу, не знает что делать с невидимым противником. Но читерские элементы остались, как заказ строений на крипе.

anonymous
()
Ответ на: комментарий от aist1

Если человек их решает

Человек обычно не решает алгоритмические задачи. Он просто знает ответ за счет своего или чужого опыта. Или выдвигает гипотезу - случайный «ответ».

При этом от ИИ человек хочет получить именно решение, а не случайные гипотезы.

anonymous
()
Ответ на: комментарий от anonymous

Современный AI моделирует нервную систему разумных животных и соответственно теоретически (в далёком будущем когда вычислительные возможности и степень параллелизма вычислений (квантовые компьютеры) значительно вырастут) может всё что и био-организмы только на другой основе.

wtj12
()
Ответ на: комментарий от wtj12

Современный AI моделирует нервную систему разумных животных

Понятие «интеллект» задает человек. Человек хочет от машины решения его проблем-гипотез, которые выдвигает:

При этом от ИИ человек хочет получить именно решение, а не случайные гипотезы.

Вот когда будет наоборот, тогда можно говорить про «настоящий интеллект».

anonymous
()
Ответ на: комментарий от buddhist

В какие ресурсы? Вот у них там и инженерных, и вычислительных ресурсов больше, чем у кого-либо. Но результат сильно ниже ожиданий.

aist1 ★★★
()
Ответ на: комментарий от aist1

А ты думаешь, что человек их решает за счет выделенного канала в астрал?

Вполне возможно, наука пока тупо не знает как работает мозг, мы фактически недалеко ушли от гидравлической теории мозга идущей еще от древних греков, вот неплохая статья в тему https://futurist.ru/articles/350

Если человек их решает, то почему машина не может?

Даже эквивалентность человеческого мышления машине Тьюринга никак ни доказана, и даже хуже Тезис Чёрча — Тьюринга — Дойча (об универсальном компьютерном устройстве способном моделировать любой конечный физический процесс) сразу спотыкается об непрерывные физические процессы которые машина Тьюринга не может моделировать. Если еще забуриться глубже в математику, то более узкий тезис Чёрча — Тьюринга тоже тупо невозможно доказать и вполне еще возможна ситуация что в математике могут появится проблемы и разделы неразрешимые на машинах Тьюринга. Есть некоторая надежда на квантовые вычислители, но их эквивалентность машинам Тьюринга уже доказана.

anonymous
()
Ответ на: комментарий от anonymous

Столь эрудированный читатель, как ты, мог бы заметить, что доказывать тут нужно именно тезис о том, что человек фундаментально превосходит машину, а не наоборот.

aist1 ★★★
()
Последнее исправление: aist1 (всего исправлений: 2)
Ответ на: комментарий от aist1

Если мы не знаем как реально работает мозг мы конечно не можем доказать ни то что человек фундаментально превосходит машину и ни обратную ситуацию. Но не как доказательство, а просто рассуждение, все наши искусственные нейросети, начиная с перспетрона, это как раз попытки или скопировать или сделать аналоги для уже известных нам механизмов работы мозга. И не думаю что такой шарж на мозг может превзойти оригинал. Дальше конечно можно ударится в философию, рассказать про птиц с самолетами, но не думаю что тут чем-то аналогии помогут, все покажет практика, и вполне вероятно что искусственные нейросети окажутся аналогом соломенного самолета из карго культа, а не настоящего самолета в сравнении с птицей.

anonymous
()
Ответ на: комментарий от aist1

А ты думаешь, что человек их решает за счет выделенного канала в астрал? Если человек их решает, то почему машина не может

Вроде один из старых тезисов был, что человек может перебирать решения и выводить новые с довольно большой скоростью. Нейронки на это не способны, они действуют в рамках, заложенных в них человеком.

Вот взять ту же доку2. Даже посредственный игрок в доку Вася сможет за одну игру приспособиться к изменению пула чемпионов, интерфейса, правил или карты, etc. Можно даже дальше пойти и посадить Васю за другую игру в таком же жанре. Вася все поймет за 20 минут.

OpenAI Five при таком же сценарии превратится в бесполезную тыкву. В последнем матче из пула убрали чемпиона потому что он поменялся.

Gary ★★★★★
()
Ответ на: комментарий от Gary

что человек может перебирать решения и выводить новые с довольно большой скоростью. Нейронки на это не способны,

LeelaChessZero перебирает варианты быстрее и лучше чем любой гроссмейстер.

anonymous
()
Ответ на: комментарий от anonymous

наука пока тупо не знает как работает мозг

Генератор бреда шума, не белого, а более сложного, многокомпонентного. Иногда можно откалибровать параметры шума под определенные решаемые задачи.

anonymous
()
Ответ на: комментарий от anonymous

Ок. Я вижу, что ты продвинутый чувак, поэтому, прямо к делу.

Тезис о том, что цифровые машины не могут работать с непрерывными функциями справедлив только тогда, когда имеет место бесконечная точность. Но этот сценарий не согласуется с физикой, так как будет предполагать бесконечное количество информации в конечном физическом объеме.

Обычно, все аргументы в пользу превосходства человека над машиной дуалистические и предполагают наличие некоей особой «психической» субстанции. Физические аргументы требуют изобретения новой физики, что и делает Роджер Пенроуз в своей серии книг про разум, пытаясь доказать, что интуиция человека — супертьюринговый процесс и, поэтому, на цифровой физической машине не моделируема.

Тут надо пояснить, что речь идет о «новой физике» как о новой научной теории, а не что-то новое в реальном мире, что до этого не существовало.

Есть однако одно утверждение, с которым мало кто рискнет спорить. О том, что физика (реальные процессы) очень даже неплохо аппроксимируется на цифровой машине. Это к вопросу об аргументах вида «карта против территории» или о «самолет против птицы». Если физику можно аппроксимировать до бесконечности на цифровой машине, то, образно говоря, «карта» в какой-то момент просто станет «территорией». Это аргумент «Слабого ИИ»: «если ты крякаешь, как утка, плаваешь, как утка и летаешь, как утка, то ты — утка». Просто в пределе не существует ничего, что могло бы отличить утку от её цифровой модели.

В практическом плане это выливается в следующее. Мозг — это (образно говоря) машиша с производительностью петафлопсного+ уровня в термопакете примерно 20 ватт. Кремний в плане абсолютной энергоэффективности на порядки хуже. И здесь у человека есть огромная форма перед машиной.

Однако, мозг — это ASIC, и его убер-петафлопсы раскрываются только на определенном классе задач. На символьных вычислениях даже механический арифмометр дает мозгу огромную фору. Не говоря уже про мой 16-ядерный R9 5950X.

И есть обоснованное предположение, что на кремниевых машинах, ввиду их других принципов хранения и обработки информации, можно реализовать те же функции, что и в мозге, но в другой асимптотике алгоритмической трудоемкости. С учетом того, что машины изначально гораздо лучше человека в символьных задачах, «кожаные мешки» могут получить себе весьма сильного конкурента.

Поэтому, я бы не расслаблялся.

aist1 ★★★
()
Ответ на: комментарий от anonymous

Генератор бреда шума, не белого, а более сложного, многокомпонентного.

И это — правильный ответ! Только есть название — стохастический перебор.

aist1 ★★★
()
Ответ на: комментарий от Gary

Ты говоришь про transfer learning, в котором люди, мягко говоря, очень хороши. А машины, пока что, где-то на уровне «мы тоже иногда так умеем».

aist1 ★★★
()
Ответ на: комментарий от aist1

перебор - не перебор, может быть и недобор, но, да, что-то стохастическое есть в задачах поиска минимума целевой функции - ошибки.

anonymous
()

не-открыта-коммерческая-закрытая-открытая-не-коммерческая-bitcoin-javascript

// звучит как товарчик с алишки, друга, оч.хорошо.

qbbr ★★★★★
()
Ответ на: комментарий от anonymous

Переборные AnyTime-алгоритмы типа Monte Carlo Markov Chain. Чем дольше подаешь «шум» на вход, тем более точный результат получаешь. Я к тому, что тут не надо что-то особенное изобретать на уровне машины. Для всего этого уже есть цифровые эквиваленты.

aist1 ★★★
()
Ответ на: комментарий от aist1

Чем дольше подаешь «шум» на вход, тем более точный результат получаешь.

Если «результатов» несколько и они сильно различаются?

anonymous
()
Ответ на: комментарий от anonymous

Получается «мотивационный конфликт» (конфликт нескольких несовместных моторных программ). Если говорить про человека, то мотивационный конфликт запускает изменение паттерна внимания, что и переживается субъектом как «мышление». Сами же механизмы изменений паттернов внимания реализуются тем же самым стохастическим поиском, только на другом временном масштабе и в несколько другом нейронном субстрате.

aist1 ★★★
()
Ответ на: комментарий от aist1

Получается «мотивационный конфликт»

Короче, Склифосовский.

Вот стоит начальная позиция в шахматах. Можно начать е2-е4, d2-d4, f2-f4, c2-c4,… Да, вообще, любой пешкой, да еще конями, и при идеальной игре будет ничья (это не доказано, но всё к тому идет). Какой «точный» ход выбрать?

anonymous
()
Ответ на: комментарий от anonymous

и при идеальной игре будет ничья (это не доказано, но всё к тому идет)

Точнее, «сумма» будет стремиться к нулю на большой серии игр. Что вполне нормально, при условии, что игроки «равны».

Какой «точный» ход выбрать?

Берешь, перебираешь все варианты, применяешь функцию оптимальности, выбираешь. Получаешь точный ответ. Если не можешь перебрать все варианты, перебираешь частично, получаешь приближенный ответ в рамках некоторого критерия приблизительности. Накапливаешь память о предыдущих играх и делаешь перебор «вокруг» ходов их тех игр. Это — «размен времени на память». Память энергетически выгодна, так как сама по себе «жрать не просит». Поиск в памяти может быть энергоемким, это да. Но compute обычно еще более энергоемкий, так как предполагает большое количество потоков данных между вычислителями.

aist1 ★★★
()
Ответ на: комментарий от aist1

«сумма» будет стремиться к нулю на большой серии игр

«Сумма» из серии игр, которые играют по «точным» ходам, может провалиться (и проваливается!) в «локальную яму». Будет игрок одного амплуа - играет «точно», но по одной тактике и/или стратеги. Что часто видишь в этих «искусственных интеллектах», которых можно поставить в тупик тупыми стратегиями. Приходится подбирать модели обучения.

anonymous
()
Ответ на: комментарий от anonymous

Игры по точным (в строгом смысле слова) ходам в локальную яму не провалятся. В локальную яму попадают, и там остаются, эвристические алгоритмы. Для стохастических алгоритмов есть некоторая вероятность случайного выхода из локальной ямы, которая пропорциональна отношению имеющегося вычислительного бюджета к требуемому (для комбинаторных задач это отношение стремится к нулю). В задачах размена времени на память (при условии быстрого, константного или логарифмического, поиска в памяти) вероятность выхода из локального минимума пропорционально размеру БД.

Механизмы внимания, о которых я говорил выше, нужны для того, чтобы «структурировать» память так, чтобы поиск в ней стал сублинейным. Если рассматривать те же нейросети, как память, то вывод в них суперлинейный и на уровне мозга компенсируется лишь массивным параллелизмом. А вот вывод в тех же пространственных деревьях будет логарифмическим. За счет чего машины и могут получить преимущество перед не-аугментированным человеком.

aist1 ★★★
()
Последнее исправление: aist1 (всего исправлений: 1)
Ответ на: комментарий от aist1

Для алгоритмов сперва надо доказать «сходимость» к «идеалу». Иначе в лучшем случае получишь аттрактор, или как он там правильно называется. При этом «идеал» - это не правильный ответ, а всего лишь приближение.

И все эти можно сказать алгоритмы «экспоненциальные», чем точнее нужен результат тем экспоненциально больше нужно шагов.

anonymous
()
Ответ на: комментарий от anonymous

Оно всё точно так, как ты говоришь.

Тут вопрос о том, что если мозг — физическая машина, то все ограничения, свойственные цифровой машине, будут свойственны и мозгу. Поэтому аргументы про интуицию, что человек может найти какой-то условно оптимальный вариант без явных рассуждений, тогда как машина должна всё делать явно, тоже спотыкается о трудоемкость комбинаторных задач. Каковы бы ни были внутренние механизмы интуиции, они в конечном итоге сведутся к тем или иным методам приближенного решения комбинаторных задач.

Это же касается и автоматического программирования. Алгоритмическая индукция вычислительно трудна, и то, что человек это «вроде как» делает на уровне интуиции, не должно приводить к заключению о фундаментальном превосходстве белкового программиста над кремниевым.

Кремниевый программист пока еще сосет, и пока что нет хорошего проспекта на будущее, но всё может измениться в один день. Так что белковому программисту лучше не расслабляться, а заранее готовиться к конкуренции.

aist1 ★★★
()
Ответ на: комментарий от aist1

мозг — физическая машина

Мозг - часть самодостаточной машины (почти).

аргументы про интуицию

Аргументы здесь субъективны. От человека не требуют решения проблемы со 100% ответственностью - уничтожением. Поэтому человек может безнаказанно генерировать бред, если это не касается работоспособности самодостаточной машины - жизнеспособности организма. Умение точно решать алгоритмические задачи никак не влияет на жизнеспособность.

Может дойти до того, люди могут жить с массовой шизой - верой в богов, капитализм, коммунизм и прочий «-изм». Главное - обеспечивать эту шизу необходимой энергией, в чем люди преуспели.

anonymous
()
Ответ на: комментарий от aist1

если мозг — физическая машина

А разве остались сомнения? Разве в мозгу работает что-то кроме физических и химических законов?

mydibyje ★★★★
()
Ответ на: комментарий от aist1

Мозг без организма не работает, мозг без организма - это не мозг.

anonymous
()
Ответ на: комментарий от mydibyje
Макс Планк: «Научная истина торжествует по мере того, как вымирают её противники»

За последние 30 лет компьютеры стали нормой и новые поколения людей просто привыкли к ним, перестав видеть в них какой-то вызов себе. И перестав воспринимать машины как какой-то субстанциональный вызов себе. Поэтому тезис «мозг — это машина», а так же очеловечивание машины воспринимается массами вполне себе позитивно.

Однако, фундаментальные вопросы, позитивные ответы на которые позволили бы поставить знак равенства между мозгом и машиной, всё еще не закрыты. В частности, остается открытым вопрос о «цифровой физике». Более того, появляются работы, утверждающие невычислимость некоторых физических феноменов.

И, самое главное, пока еще не решена окончательно психофизическая проблема, решение которой дало бы «когнитивный код» — «отображение переживаний на биты».

В зависимости от того, как будет поставлен аргумент в споре, противники тезиса о возможности заменить человека машиной полностью пока что могут быть «на коне».

aist1 ★★★
()
Ответ на: комментарий от aist1

тезиса о возможности заменить человека машиной

Заменить кого/что и где? Иначе это бессмысленная демагогия.

Заменить человека машиной в машине, на конвейере? Без вопросов, задача уже давно решается.

Заменить человека машиной в природе? А стоит ли такая задача перед человеком?

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.