LINUX.ORG.RU

История изменений

Исправление byko3y, (текущая версия) :

Поясняю ситуацию. Давайте начнем с пояснения национально-политической составляющей. Есть гугл, есть микрософт, есть амазон, есть эпл, есть фейсбук — это игроки, которые могут хоть завтра выдать любой кусок дерьма, и через неделю вокруг него уже слетятся сообщества фанатов именно этой технологии. Есть игроки чуть менее значимые для IT, которые влияют на какие-то специфичные сферы, вроде SAP, Oracle, IBM, но все же не так сильно. И есть десятки тысяч других контор и миллионы отдельных программистов, которые не влияют вообще ни на что, и даже если завтра они выкатят самый лучший в истории программирования язык, то его почти никто не заметит.

Про «никого» — никто, то есть, макаки, составляют нынче 95%, именно они генерируют эту ориентацию на FAAMG, а остальные 5% либо вливаются в эту движуху, либо оказываются с коммерческой точки зрения в серьезном отставании. Потому что гугл выпустил TensorFlow под питон со встроенной БД, благодаря чем для этой конкретной задачи все недостатки питона теряют значение, поскольку питон становится не более чем языком конфигурации. А ты решил писать нейросети на лиспе, и потому вынужден затратить на реализацию клея к крестовым интерфейсам TensorFlow одну пятую долю сил, которые были брошены гуглом на их питоний клей к TensorFlow — но питонье TensorFlow уже есть готовое и бесплатное! Гугл бы и под брейнфак сделал биндинги TensorFlow, но у них просто нет достаточного спроса на брейнфак среди сотрудников.

И так повсюду. Хочешь сделать хороший init? А вот хрен тебе, уже есть systemd и жрать ты будешь именно его. Потому что он уже готов, а твой init еще не готов. Даже если был бы готов, как S6 — все равно никто бы не обратил внимания, потому что под systemd уже куча готового софта и дистров, а под S6 почти ничего нет. Итого у тебя экспериментальный друндулет, а у них — конвеер по производству миллионов автомобилей в год. И потому реальные перспективы возможны только в продажах освежителей воздуха и услуг шиномонтажа.

Теперь техническая составляющая. Машина Тьюринга давным давно устарела, Замшелые корпорации гоняют одни и те же давно известные и проверенные технологии со сверхзвуковыми скоростями, наращивая скорости из года в год. Да взять хотя бы интель, который доит x86 уже которое десятилетие, хотя технология чудовищно устарела. Здесь корпорации попадают в собственный капкан — им нет смысла развивать что-то по-настоящему новое, потому что завтра повторится история с IBM-Intel, когда IBM стандартизировал писюки, а по итогу выиграл от этого Intel. И по итогу все сидят возле кучи говна и отмахиваются «это не я, это не мое, это вон василий петрович пусть убирает».

Под устаревшие процессоры нужен устаревший софт, а значит в нынешних реалиях никак не получится писать стабильный и быстрый софт, потому что запускать ты его будешь на ненадежном x86, или в крайнем случае на ARM, который уже догоняет x86, и в том числе по ненадежности. А потому какой бы ЯП ты не пытался создать — у тебя получится либо разновидность языка Си, либо что-то очень медленное и тяжелое, выполняющееся на прокладках абстракций.

Индустрия серверодесктопов на самом деле встала колом уже 10 лет назад, не появляется вообще ничего нового. Цены на оперативу замерли где-то в 2012, на диски — в 2011, на SSD — в 2015, производительность ядра процессора за 10 лет выросла где-то в 2 раза. Даже игры новые перестали разрабатывать, только клепают новые серии старых или индюшатину, косящую под эти старые игры — когда я запускаю They Are Billions 2019 года выпуска, и с ужасом понимаю, что это на самом деле Stronghold 2001 года выпуска, только вместо лучников — лучницы, а вместо орд варваров — орды зомби. Или запускаю очередную космическую стрелялку 2020 года, и понимаю, что это Faster Than Light 2012 года выпуска.

Смартфоны как-то оживили индустрию, но по факту лишь повторили те же самые технологии в уменьшенном масштабе. Когда мощность смартфонов начала подбираться к мощности десктопов, то та же проблема повторилась — развиваться дальше теми же технологиями невозможно. Нужны новые инструменты, которые позволят нарастить масштаб, которые позволят забыть про segmentation fault и garbage collector в принципе, которые позволят эффективно использовать транзисторы — те же миллиарды транзисторов уже сегодня позволяют получить сотни терафлопс (100*10^12) на кристалле, а по факту мы имеем процессоры с десятками гигафлопсов (10*10^9), которые при этом крайне неэффективно используются программами, из-за чего я прихожу в спермаркет, а там интерфейс самообслуживания тормозит секунду-две, обрабатывая несколько сотен (N*100) наименований товаров.

Второй источник временного оживления индустрии — это нейросети. Появились достаточно универсальные технологии, которые позволяют более-менее успешно утилизировать вычислительные ресурсы путем подбора параметров системы грубой силой видеокарты вместо программирования этого поведения поведения медленным и глупым человеком. Правда, надежность работы нейросети еще ниже, чем надежность процессора — теперь уже ни один программист не может знать, почему же система на нейросети ведет себя именно так, а не иначе, теперь нельзя «пройти пошагово и проверить значения переменных», потому что шагов и переменных безумно много.

А подтверждения остановки развития нейросеток у меня есть:
https://labelyourdata.com/articles/history-of-machine-learning-how-did-it-all...
https://www.dataversity.net/a-brief-history-of-machine-learning/

Сверточные сети — 1988, бустинг — 1990, случайный лес — 1995, долгая краткосрочная память — 1997. Всё, на этом качественное развитие нейросеток прекратилось, последние 25 лет идет только реализация старых алгоритмов с новыми приправами и на новом железе.

Забавно, что мой любимый Дейкстра описал именно этот кризис еще в 1988 году:
https://www.cs.utexas.edu/users/EWD/transcriptions/EWD10xx/EWD1036.html — On the cruelty of really teaching computing science

Где-то в это время знания, подходы к программированию, и инструменты для реализации этих подходов начали сильно и явно отставать от доступных технологий. То есть, транзисторы есть, а использовать их мы не можем, при этом академическая среда находится в каменном веке и выпускает поколение за поколением специалистов с безнадежно отставшими знаниями — их отсталость просто не так видна на общем фоне таких же как они. Проходит еще 20 лет, и индустрия, построенная этими отсталыми людьми, останавливается, перестает развиваться, и лишь делает вид жизнедеятельности, переливая пустое в порожнее.

Исправление byko3y, :

Поясняю ситуацию. Давайте начнем с пояснения национально-политической составляющей. Есть гугл, есть микрософт, есть амазон, есть эпл, есть фейсбук — это игроки, которые могут хоть завтра выдать любой кусок дерьма, и через неделю вокруг него уже слетятся сообщества фанатов именно этой технологии. Есть игроки чуть менее значимые для IT, которые влияют на какие-то специфичные сферы, вроде SAP, Oracle, IBM, но все же не так сильно. И есть десятки тысяч других контор и миллионы отдельных программистов, которые не влияют вообще ни на что, и даже если завтра они выкатят самый лучший в истории программирования язык, то его почти никто не заметит.

Про «никого» — никто, то есть, макаки, составляют нынче 95%, именно они генерируют эту ориентацию на FAAMG, а остальные 5% либо вливаются в эту движуху, либо оказываются с коммерческой точки зрения в серьезном отставании. Потому что гугл выпустил TensorFlow под питон со встроенной БД, благодаря чем для этой конкретной задачи все недостатки питона теряют значение, поскольку питон становится не более чем языком конфигурации. А ты решил писать нейросети на лиспе, и потому вынужден затратить на реализацию клея к крестовым интерфейсам TensorFlow одну пятую долю сил, которые были брошены гуглом на их питоний клей к TensorFlow — но питонье TensorFlow уже есть готовое и бесплатное! Гугл бы и под брейнфак сделал биндинги TensorFlow, но у них просто нет достаточного спроса на брейнфак среди сотрудников.

И так повсюду. Хочешь сделать хороший init? А вот хрен тебе, уже есть systemd и жрать ты будешь именно его. Потому что он уже готов, а твой init еще не готов. Даже если был бы готов, как S6 — все равно никто бы не обратил внимания, потому что под systemd уже куча готового софта и дистров, а под S6 почти ничего нет. Итого у тебя экспериментальный друндулет, а у них — конвеер по производству миллионов автомобилей в год. И потому реальные перспективы возможны только в продажах освежителей воздуха и услуг шиномонтажа.

Теперь техническая составляющая. Машина Тьюринга давным давно устарела, Замшелые корпорации гоняют одни и те же давно известные и проверенные технологии со сверхзвуковыми скоростями, наращивая скорости из года в год. Да взять хотя бы интель, который доит x86 уже которое десятилетие, хотя технология чудовищно устарела. Здесь корпорации попадают в собственный капкан — им нет смысла развиваться что-то по-настоящему новое, потому что завтра повторится история с IBM-Intel, когда IBM стандартизировал писюки, а по итогу выиграл от этого Intel. И по итогу все сидят возле кучи говна и отмахиваются «это не я, это не мое, это вон василий петрович пусть убирает».

Под устаревшие процессоры нужен устаревший софт, а значит в нынешних реалиях никак не получится писать стабильный и быстрый софт, потому что запускать ты его будешь на ненадежном x86, или в крайнем случае на ARM, который уже догоняет x86, и в том числе по ненадежности. А потому какой бы ЯП ты не пытался создать — у тебя получится либо разновидность языка Си, либо что-то очень медленное и тяжелое, выполняющееся на прокладках абстракций.

Индустрия серверодесктопов на самом деле встала колом уже 10 лет назад, не появляется вообще ничего нового. Цены на оперативу замерли где-то в 2011, на диски — в 2011, на SSD — в 2015, производительность ядра процессора за 10 лет выросла где-то в 2 раза. Даже игры новые перестали разрабатывать, только клепают новые серии старых или индюшатину, косящую под эти старые игры — когда я запускаю They Are Billions 2019 года выпуска, и с ужасом понимаю, что это на самом деле Stronghold 2001 года выпуска, только вместо лучников — лучницы, а вместо орд варваров — орды зомби. Или запускаю очередную космическую стрелялку 2020 года, и понимаю, что это Faster Than Light 2012 года выпуска.

Смартфоны как-то оживили индустрию, но по факту лишь повторили те же самые технологии в уменьшенном масштабе. Когда мощность смартфонов начала подбираться к мощности десктопов, то та же проблема повторилась — развиваться дальше теми же технологиями невозможно. Нужны новые инструменты, которые позволят нарастить масштаб, которые позволят забыть про segmentation fault и garbage collector в принципе, которые позволят эффективно использовать транзисторы — те же миллиарды транзисторов уже сегодня позволяют получить сотни терафлопс (100*10^12) на кристалле, а по факту мы имеем процессоры с десятками гигафлопсов (10*10^9), которые при этом крайне неэффективно используются программами, из-за чего я прихожу в спермаркет, а там интерфейс самообслуживания тормозит секунду-две, обрабатывая несколько сотен (N*100) наименований товаров.

Второй источник временного оживления индустрии — это нейросети. Появились достаточно универсальные технологии, которые позволяют более-менее успешно утилизировать вычислительные ресурсы путем подбора параметров системы грубой силой видеокарты вместо программирования этого поведения поведения медленным и глупым человеком. Правда, надежность работы нейросети еще ниже, чем надежность процессора — теперь уже ни один программист не может знать, почему же система на нейросети ведет себя именно так, а не иначе, теперь нельзя «пройти пошагово и проверить значения переменных», потому что шагов и переменных безумно много.

А подтверждения остановки развития нейросеток у меня есть:
https://labelyourdata.com/articles/history-of-machine-learning-how-did-it-all...
https://www.dataversity.net/a-brief-history-of-machine-learning/

Сверточные сети — 1988, бустинг — 1990, случайный лес — 1995, долгая краткосрочная память — 1997. Всё, на этом качественное развитие нейросеток прекратилось, последние 25 лет идет только реализация старых алгоритмов с новыми приправами и на новом железе.

Забавно, что мой любимый Дейкстра описал именно этот кризис еще в 1988 году:
https://www.cs.utexas.edu/users/EWD/transcriptions/EWD10xx/EWD1036.html — On the cruelty of really teaching computing science

Где-то в это время знания, подходы к программированию, и инструменты для реализации этих подходов начали сильно и явно отставать от доступных технологий. То есть, транзисторы есть, а использовать их мы не можем, при этом академическая среда находится в каменном веке и выпускает поколение за поколением специалистов с безнадежно отставшими знаниями — их отсталость просто не так видна на общем фоне таких же как они. Проходит еще 20 лет, и индустрия, построенная этими отсталыми людьми, останавливается, перестает развиваться, и лишь делает вид жизнедеятельности, переливая пустое в порожнее.

Исходная версия byko3y, :

Поясняю ситуацию. Давайте начнем с пояснения национально-политической составляющей. Есть гугл, есть микрософт, есть амазон, есть эпл, есть фейсбук — это игроки, которые могут хоть завтра выдать любой кусок дерьма, и через неделю вокруг него уже слетятся сообщества фанатов именно этой технологии. Есть игроки чуть менее значимые для IT, которые влияют на какие-то специфичные сферы, вроде SAP, Oracle, IBM, но все же не так сильно. И есть десятки тысяч других контор и миллионы отдельных программистов, которые не влияют вообще ни на что, и даже если завтра они выкатят самый лучший в истории программирования язык, то его почти никто не заметит.

Про «никого» — никто, то есть, макаки, составляют нынче 95%, именно они генерируют эту ориентацию на FAAMG, а остальные 5% либо вливаются в эту движуху, либо оказываются с коммерческой точки зрения в серьезном отставании. Потому что гугл выпустил TensorFlow под питон со встроенной БД, благодаря чем для этой конкретной задачи все недостатки питона теряют значение, поскольку питон становится не более чем языком конфигурации. А ты решил писать нейросети на лиспе, и потому вынужден затратить на реализацию клея к крестовым интерфейсам TensorFlow одну пятую долю сил, которые были брошены гуглом на их питоний клей к TensorFlow — но питонье TensorFlow уже есть готовое и бесплатное! Гугл бы и под брейнфак сделал биндинги TensorFlow, но у них просто нет достаточного спроса на брейнфак среди сотрудников.

И так повсюду. Хочешь сделать хороший init? А вот хрен тебе, уже есть systemd и жрать ты будешь именно его. Потому что он уже готов, а твой init еще не готов. Даже если был бы готов, как S6 — все равно никто бы не обратил внимания, потому что под systemd уже куча готового софта и дистров, а под S6 почти ничего нет. Итого у тебя экспериментальный друндулет, а у них — конвеер по производству миллионов автомобилей в год. И потому реальные перспективы возможны только в продажах освежителей воздуха и услуг шиномонтажа.

Теперь техническая составляющая. Машина Тьюринга давным давно устарела, Замшелые корпорации гоняют одни и те же давно известные и замшелые технологии со сверхзвуковыми скоростями, наращивая скорости из года в год. Да взять хотя бы интель, который доит x86 уже которое десятилетие, хотя технология чудовищно устарела. Здесь корпорации попадают в собственный капкан — им нет смысла развиваться что-то по-настоящему новое, потому что завтра повторится история с IBM-Intel, когда IBM стандартизировал писюки, а по итогу выиграл от этого Intel. И по итогу все сидят возле кучи говна и отмахиваются «это не я, это не мое, это вон василий петрович пусть убирает».

Под устаревшие процессоры нужен устаревший софт, а значит в нынешних реалиях никак не получится писать стабильный и быстрый софт, потому что запускать ты его будешь на ненадежном x86, или в крайнем случае на ARM, который уже догоняет x86, и в том числе по ненадежности. А потому какой бы ЯП ты не пытался создать — у тебя получится либо разновидность языка Си, либо что-то очень медленное и тяжелое, выполняющееся на прокладках абстракций.

Индустрия серверодесктопов на самом деле встала колом уже 10 лет назад, не появляется вообще ничего нового. Цены на оперативу замерли где-то в 2011, на диски — в 2011, на SSD — в 2015, производительность ядра процессора за 10 лет выросла где-то в 2 раза. Даже игры новые перестали разрабатывать, только клепают новые серии старых или индюшатину, косящую под эти старые игры — когда я запускаю They Are Billions 2019 года выпуска, и с ужасом понимаю, что это на самом деле Stronghold 2001 года выпуска, только вместо лучников — лучницы, а вместо орд варваров — орды зомби. Или запускаю очередную космическую стрелялку 2020 года, и понимаю, что это Faster Than Light 2012 года выпуска.

Смартфоны как-то оживили индустрию, но по факту лишь повторили те же самые технологии в уменьшенном масштабе. Когда мощность смартфонов начала подбираться к мощности десктопов, то та же проблема повторилась — развиваться дальше теми же технологиями невозможно. Нужны новые инструменты, которые позволят нарастить масштаб, которые позволят забыть про segmentation fault и garbage collector в принципе, которые позволят эффективно использовать транзисторы — те же миллиарды транзисторов уже сегодня позволяют получить сотни терафлопс (100*10^12) на кристалле, а по факту мы имеем процессоры с десятками гигафлопсов (10*10^9), которые при этом крайне неэффективно используются программами, из-за чего я прихожу в спермаркет, а там интерфейс самообслуживания тормозит секунду-две, обрабатывая несколько сотен (N*100) наименований товаров.

Второй источник временного оживления индустрии — это нейросети. Появились достаточно универсальные технологии, которые позволяют более-менее успешно утилизировать вычислительные ресурсы путем подбора параметров системы грубой силой видеокарты вместо программирования этого поведения поведения медленным и глупым человеком. Правда, надежность работы нейросети еще ниже, чем надежность процессора — теперь уже ни один программист не может знать, почему же система на нейросети ведет себя именно так, а не иначе, теперь нельзя «пройти пошагово и проверить значения переменных», потому что шагов и переменных безумно много.

А подтверждения остановки развития нейросеток у меня есть:
https://labelyourdata.com/articles/history-of-machine-learning-how-did-it-all...
https://www.dataversity.net/a-brief-history-of-machine-learning/

Сверточные сети — 1988, бустинг — 1990, случайный лес — 1995, долгая краткосрочная память — 1997. Всё, на этом качественное развитие нейросеток прекратилось, последние 25 лет идет только реализация старых алгоритмов с новыми приправами и на новом железе.

Забавно, что мой любимый Дейкстра описал именно этот кризис еще в 1988 году:
https://www.cs.utexas.edu/users/EWD/transcriptions/EWD10xx/EWD1036.html — On the cruelty of really teaching computing science

Где-то в это время знания, подходы к программированию, и инструменты для реализации этих подходов начали сильно и явно отставать от доступных технологий. То есть, транзисторы есть, а использовать их мы не можем, при этом академическая среда находится в каменном веке и выпускает поколение за поколением специалистов с безнадежно отставшими знаниями — их отсталость просто не так видна на общем фоне таких же как они. Проходит еще 20 лет, и индустрия, построенная этими отсталыми людьми, останавливается, перестает развиваться, и лишь делает вид жизнедеятельности, переливая пустое в порожнее.