LINUX.ORG.RU
ФорумTalks

Какие вы можете назвать революционные технологии ПО, созданные в последние 20 лет?

 , , ,


1

3

Я давно выдвигал теорию, что разработка софта скатилась в говно. Современный кодер не разрабатывает новый софт — современный кодер только клеет существующий.

Интервал 20 лет выбран не случайно — последние прорывные P2P технологии массово создавались 20 лет назад (Chord, Kademlia, eDonkey, BitTorent).

Начну со своего варианта ответа: Bitcoin. Подавляющее большинство блокчейнов слизаны с битка почти один в один, кое-кто даже развил идею, но качественного скачка не смог сделать никто. К сожалению, больше ничего не вспоминается.

Сразу замечу, что «продавать настроенную инфраструктуру», оно же «облака» — это, мягко говоря, не новое решение. NoSQL СУБД — это шаг назад, с NoSQL БД начинались. Последние новые технологии искуственного интелекта появились в 90-х.

★★★★

Все вышеотписавшиеся просто недооценивают перспективы теледильдоники.

cocucka ★★★★☆
()
Ответ на: комментарий от byko3y

удобный просмотр дискусий в виде дерева

Для начала деровофилы должны решить проблему с тем как они будут получать апдейты от сервера.

Костыли вроде хабровского перескока по веткам с помощью клика это просто смех на палочке.

ritsufag ★★★★★
()
Последнее исправление: ritsufag (всего исправлений: 1)

Переход на X11 вместо реализаций Display PostScript в предках настоящего UNIX – откровенный шаг назад в индустрии.

Compared to X, NeWS was vastly more powerful.

EXL ★★★★★
()
Ответ на: комментарий от javascript

Ага, не было. SPA катится всё дальше в некий аналог xorg, которому напомнить сколько лет?

Тут как раз на лицо не прорывная технология, а перерождения простой сущности с помощью набора костылей во что-то, что хоть отдалённо будет напоминать технологии 80х.

ixrws ★★★
()
Ответ на: комментарий от Djanik

Ты смеешься надо мной?

The semantic web improves web technologies in order to generate, share and connect content through search and analysis

Поиска и ссылок не было в вебе?

in Web 3.0, computers can understand information like humans in order to provide faster and more relevant results

А в гугле-то и не знают. Пойди научи их.

The three dimensional design is being used extensively in websites and services in Web 3.0. Museum guides, computer games, ecommerce, geospatial contexts, etc. are all examples that use 3D graphics

Где это? Последний раз я видел 3D на сайте какой-то WebGL демки и еще в 3D видео на ютьюбе с сомнительной художественной ценностью онных. Какая доля этих видео и этих сайтов на общем фоне? 0.01%?

With Web 3.0, information is more connected thanks to semantic metadata. As a result, the user experience evolves to another level of connectivity that leverages all the available information

Это вообще что такое? Они про радости существования с зондом в жопе, или про что?

Content is accessible by multiple applications, every device is connected to the web, the services can be used everywhere

Неа, попробуй на досуге воспользоваться ватсапом не через единственный официальный клиент. Особенно «the services can be used everywhere» — потому что, очевидно, я не смогу воспользоваться services там, где нет интернета. А его дофига где нет, и еще больше мест, где он есть, но плохой. При этом я могу читать почту или группы новостей без интернета. Я бы это назвал не Web 3.0, а Web 0.3, потому что очевидна деградация технологий.

byko3y ★★★★
() автор топика
Ответ на: комментарий от EXL

Ну X11 это много всего, а не только протокол отрисовки. При большом желании можно туда вкорячить dps или pdf в качестве протокола рендеринга. Причём при очень большом желании, можно вкорячить это всё в виде модуля только слегка подрихтовав попутно что-то ещё в xorg.

ixrws ★★★
()

ТС нытик какой, какфсигда!

— Что нового придумали за последние 200 лет?
— Компьютер?..
— Люди на пальцах и раньше считать умели! Я просил назвать прорывные технологии.

Вся суть ТСа.

ЗЫ все новое — это переосмысление старого. В истории не было ни одного «прорывного» технологического или научного скачка, когда из ничего появлялось что-то новое.

filosofia
()
Ответ на: комментарий от no-such-file

GPT

В чем качественный скачок? Что наконец индустрия сделала что-то на замену запредельно устаревшему MBR? Который не поддерживает диски больше 2 терабайт. И сменила CHS на LBA, при том, что через CHS уже лет 30 никто не адресует блоки.

GAN

Порождающие модели были известны хер знает сколько лет. Уже в 2002 были статьи по обучению порождающих моделей:
http://robotics.stanford.edu/~ang/papers/nips01-discriminativegenerative.pdf

Что кто-то присобачил дискриминирующую модель для оценки работы порождающей? (в этом и заключается идея GAN, если чо). К сожалению, полноценного обучения без учителя не получилось, поскольку они друг друга натренируют ровно на то, что им задали в стартовых тренировочных наборах данных.

AlphaZero

Это прикольная штука, но там хайпа больше, чем прогреса. Та же история, что и с OpenAI: соперников ставят в заранее невыгодные ограничения, и потом удивляются «вау, как же нам удалось победить». А вот так вот — дай больше времени, и Stockfish ушатает AlphaZero. Я напоминаю, что AlphaZero использует даже не GPGPU, а специализированные тензорные процессоры, при этом Stockfish использует ЦП. По этой причине, если вспомнить насколько тензорные процессоры больше выполняют вычислений в секунду, чем ЦП, то выяснится, что при попытке выполнить AlphaZero в аналогичных условиях, но на ЦП, AlphaZero в хламину проиграет StockFish. Вот и вся суть хайпа.

byko3y ★★★★
() автор топика
Ответ на: комментарий от no-such-file

Ну что же P2P это говно мамонта, ведь сети были уже давно

Автоматизированных компьютерных сетей не было. P2P — это даже не просто «автоматически один раз настроить сеть», а это «автоматически подстраиваться под постоянно меняющуюся сеть», то есть, создается некоторая новая сущность, независимая от конфигурации сети. Поэтому она нова.

Биток туда же, графы ещё Эйлер изучал

Вообще не понимаю, при чем тут графы Эйлера. Основа битка — это асимметричная криптография и решение задачи византийских генералов в рамках вышеупомянутой надсетевой сущности. Для решения обеих этих задач имелись условия еще в 90-х годах, но реализацию оно получило только к 2009 году — поэтому оно и было прорывным, все эти годы никто не мог собрать кубики вместе.

byko3y ★★★★
() автор топика
Ответ на: комментарий от ox55ff

Раньше разработка начиналась с написания своего компилятора и ОС

Это в каком году-то? Готовыми компиляторами уже к концу 80-х пользовались.

byko3y ★★★★
() автор топика
Ответ на: комментарий от tiinn

Векторные вычисления возникли еще в 70-х годах. То, что какое-то время в 80-90-х индустрия помешалась на скалярных пошаговых вычислениях, не делает технологию новой

Нового там то, что видеокарты превратились в числодробилки, и эту технологию прикрутили к видео

Я не понял аргумента. Что железо развилось — я не спорю, до 2008 года развитие имело место. Вопрос был про софт, и я не вижу в твоем аргументе развития софта.

Недавно просто стало возможным выполнять их в реальном времени

Так это и есть прорыв

Ну елы-палы, прыжки с элементарной гравитацией и коллизия в реальном времени были в UE еще в 1998. Уже в 2002 году был UE 2 с полноценным рэгдолом и прочими радостями. То есть, даже если брать физику в реальном времени как прорыв — она не попадает в заданные в исходном сообщении временные рамки.

byko3y ★★★★
() автор топика
Ответ на: комментарий от fernandos

Развитие веба, конечно же

Я советую тебе конкретизировать, что такое «веб», поскольку это очень широкое понятие, и даже нативные приложухи, вроде мобильного клиента фейсбука, тоже относят к вебу, хотя никакого WWW там нет, а есть только REST-запросы, которые с таким же успехом могли быть JSONB или protobuf.

byko3y ★★★★
() автор топика
Ответ на: комментарий от t184256

Nix

2003 год. На грани, но принято. Это первая фундаментальная попытка решить проблему организации софта, а не строить бесконечные костыли под ней.

byko3y ★★★★
() автор топика
Ответ на: комментарий от Legioner

V8 ну и Google Chrome в принципе. Возможность запускать настолько всемогущий софт в песочнице это потрясающе

«Песочность» такого бескрайнего монстра, как Google Chrome, очень сомнительна. По поводу V8 на самом деле аргумент корректный, но название неправильное — на самом деле это LuaJIT и 2005 год.

HTTP/3 - другие протоколы просто стали не нужны

HTTP/1.x был полноценным протоколом, то есть, были приложения, которые умели в этот протокол и больше ничего. HTTP/3 — это скорее фундамент, как TCP, на котором уже строятся протоколы. То есть, «другие протоколы» никуда не деваются, только теперь вместо TCP они работают поверх HTTP/3.

React.js - потрясающая концепция построения UI

FRP — 1997 год. Весь смысл конкретно реакта для фейсбука заключался в формировке статичных страниц без перезагрузки. Вот и вся «магия». Революционно ли это? Не думаю.

byko3y ★★★★
() автор топика
Ответ на: комментарий от Meyer

General purpose computing on GPU. Он мог бы просто GPGPU сказать

Ну это же хардварная хрень, при чем тут софт?

byko3y ★★★★
() автор топика
Ответ на: комментарий от Spoofing

booty

Ну, наверное, booty по значимости все-таки идет после сайтов для онлайн микрокредитования.

byko3y ★★★★
() автор топика
Ответ на: комментарий от byko3y

Один опенсорцный проект бутит все что попало. Возможность скриптованой загрузки. Четко выраженые стейджи.

Jetty ★★★★★
()
Ответ на: комментарий от praseodim

Даже биткоин - это конечно новое в смысле криптовалюты, но сами по себе вычисления, которые в его основе, совсем не новые

Вычисления — да, не новы, конец восьмидесятых. Задействовать эти вычисления для построения P2P сети распределенных транзакций — ново.

Если же смотреть с более практической точки зрения, то за эти 20 лет была доведена до практически полезного применения технология машинного обучения. Deep Learning, нейросетки, появились фреймворки TensorFlow, Torch (PyTorch) и другие - вот это вот все

А я бы говорил, что они доведены до практически бесполезного уровня, когда теперь даже сами разработчики не знают, как работает их система. Вот меня (и не только меня) бесит, что гугл не умеет искать по старым сайтам. А самому гуглу похер. Особенно лютый ад начинается, если твой поиск внезапно пересекается с чем-то сверхпопулярным, а ищешь ты при этом что-то достаточно малопопулярное.

Сами нейросетки появились еще в 60-е, но тогда это была просто программистская забава. В 90-е могло разве что на суперкомпьютерах всерьез развиваться, а сейчас ушло в массы. Количество перешло в качество, как когда-то любили говорить. И я бы даже сказал, что еще не дошло до пика развития

Так эта одна и та же шарманка играется с 70-х годов: завтра, на следующей неделе, роботы станут умнее человека и захватят мир. А проходят восьмидесятые — и ничего, проходят девяностые — ничего, проходят нулевые — ничего, проходят десятые — вот где-то здесь мы сейчас. Да, что-то они могут показать, но это чаще грамотная обертка и свет под нужным углом, чем что-то реально полезное и революционное. Как еще черт знает когда писал Дейкстра «делать искуственный человеческий интеллект на компьютере? Это не прогресс, а скорее деградация, я предпочел бы, чтобы мой компьютер был надежнее и предсказуемее, чем постоянно ошибающийся мартышкин ум» — это мой вольный пересказ.

Так что никакого «пика» даже рядом не видно, компьютеры минимум в тысячи раз проигрывают живым организмам в эффективности — даже какая-то муха умнее любого современного суперкомпьютера с ИИ. По крайней мере в своей задаче. Естественно, муха не может играть в шахматы и в «Что? Где? Когда?» она тоже не может участвовать.

кластерные технологии революционно развились до массового применения и сейчас нормально выглядит, например, заказать у Amazon с десяток тысяч CPU для расчетов. Все это на лету виртуально конфигурируется, может наращиваться и т.д

Просто сервера стали дешевле. Ты можешь примерно так же заказать сервера у хецнера за примерно те же деньги. а то и дешевле, с единственной разницей — у тебя не будет дорогущих сервисов Amazon для той самой автоконфигурации. И ты сэкономишь кучу денег, если свои десятки тысяч CPU будешь организовывать сам. По крайней мере если речь идет не про «поиграться на часик».

Совсем забыл. Еще гомогенное шифрование, в том числе появление даже открытых библиотек, в основном (а от кого еще?) от гугла. Как-то оно совсем теоретически было еще лет 10 назад, а сейчас доработали до практического применения, хотя это все еще сильно новое дело

Вот тут ты меня удивил. А для чего его применяют?

byko3y ★★★★
() автор топика
Ответ на: комментарий от outtaspace

TDD

Оракл еще по этой методе писали.

DDD

Абстрактное нечто.

CRDT

Термин новый, но являние старо. Еще BitKeeper (1998) являлся недо-CRDT.

byko3y ★★★★
() автор топика
Ответ на: комментарий от ox55ff

Сначала свой компьютер уникальный собирали! Как вот эта британская пекарня. Отправила сотрудника учиться на компутер сайентиста, потом профинансировала постройку компьютера, потом разработку софта, чтобы считать зарплату, графики, рецепты и складские запасы. Скорее всего, первый в мире компьютер, применявшийся для задач бизнеса.

https://www.youtube.com/watch?v=-8K-xbx7jBM

Harald ★★★★★
()
Ответ на: комментарий от filosofia

все новое — это переосмысление старого. В истории не было ни одного «прорывного» технологического или научного скачка, когда из ничего появлялось что-то новое

Кто ж спорит. И, тем не менее, биткоин являлся качественным переосмыслением старого. Более того, он строился на безумно устаревших Тьюринг машинах — не то, что какие-нибудь новомодные квантовые вычислители.

byko3y ★★★★
() автор топика
Ответ на: комментарий от Jetty

Один опенсорцный проект бутит все что попало. Возможность скриптованой загрузки. Четко выраженые стейджи

Винду загрузит? У Grub тоже этапы, так он 1995 года.

byko3y ★★★★
() автор топика

с момента прочтения «Алгоритмы и структуры данных» Вирта, ничего кроме вероятностных алгоритмов не вспомнилось 🤷‍♂️

Minona ★★☆
()
Ответ на: комментарий от Minona

с момента прочтения «Алгоритмы и структуры данных» Вирта, ничего кроме вероятностных алгоритмов не вспомнилось

Ты отчасти прав, но не полностью. Действительно, технологии софтостроения и в частности базовые алгоритмы застряли в каком-то каменном веке, то есть, в большинстве случаев будут применять именно их. Но это не значит, что в каменном веке должно застревать вообще всё и вся.

byko3y ★★★★
() автор топика

а вспомнил — язык DRAKON.

Minona ★★☆
()
Ответ на: комментарий от byko3y

я поддержал твой тезис, что современные технологии, в основном, всего лишь комбинация базовых.
и глобально нового ничего не изобрели с момента осмысления «базы».

Minona ★★☆
()
Ответ на: комментарий от fernandos

Никто не мешает, но никто так не делает.

Гемини не имеет и процента охвата, а следовательно и разговаривать не о чем.

t184256 ★★★★★
()
Ответ на: комментарий от Minona

я поддержал твой тезис, что современные технологии, в основном, всего лишь комбинация базовых.
и глобально нового ничего не изобрели с момента осмысления «базы»

То, что ты упомянул — это ни разу не исчерпывающая глобальная база. Это вполне себе локальная база, которую коммерсы затаскали до дыр.

byko3y ★★★★
() автор топика
Ответ на: комментарий от byko3y

А я не заметил разницы

Какой стек, опыт, проекты? Я заметил: раньше в вебе доминировала пыха, теперь её потеснили и код стал чище. В новых пыхо проектах он тоже стал чище, появились фреймворки, хотя бы базовый mvc применяют. Посмотри wordpress, smf, прочие старые движки - там рендеринг html, работа с базой и внутренняя логика размазаны по всему коду, это говно невозможно поддерживать.

Раньше про GoF и чистый код знали лишь энтерпрайз дядьки, теперь это наконец-то стало доходить до всех.

И нет, генерить страницу полностью на JS с белого листа придумали не вчера

В JS очень многое изменилось: JIT, куча нового API, PWA и WebAssembly. Вышел html5 и новые версии css, всякие технологии типа WebRTC.

С технической стороны джанга — мусор

Попробуй написать не мусор, обосрёшься ведь. В каком модном фреймворке нет мусора? Может такой есть, но я не нашёл - везде тысячи строк в одном файле, костыли, хаки и прочие антипаттерны. Потому что хороший фреймворк должен уметь обрабатывать множество исключений, без говнеца не получится. И проблема не в самих фреймворках - частенько встречаются баги и «особенности» языков, используемых библиотек и технологий. Протокол HTTP сам по себе говно, но замены ему пока нет, приходится жрать кактус.

InterVi ★★★★★
()

Широкое распространение нейронок. Теперь буквально каждый может их использовать. Благодаря этому стали возможными всякие deep_fake, колоризация и хороший upscale изображений и видео.

einhander ★★★★★
()
Ответ на: комментарий от byko3y

на замену запредельно устаревшему MBR

Ахах, ну ты и лошара. Т.е. ты даже из контекста не понял о чём речь?

Уже в 2002

Начнем с того что 2002 это как раз «последние 20 лет». А конкретно GAN описан в 2014.

AlphaZero использует даже не GPGPU, а специализированные тензорные процессоры

Суть достижения как бы не в этом.

no-such-file ★★★★★
()
Ответ на: комментарий от byko3y

Электричество: 1600 год. С тех пор всё скатывается в говно, вокруг только б-тво, разврат и наркотики. Забыть и выбросить, переписать с нуля. А вот раньше трава была зеленее и деревья выше!

InterVi ★★★★★
()
Ответ на: комментарий от byko3y

«автоматически подстраиваться под постоянно меняющуюся сеть»

Это было ещё в бородатом RIP.

не понимаю, при чем тут графы Эйлера

Ну ок.

асимметричная криптография

Старее поповой собаки.

no-such-file ★★★★★
()

Ты меня чуть было не поймал что я не начал расписывать.

Но потом понял что чтобы я не написал - ты сразу скажешь что не новое и три пердуна в 1970ом году теоретически описали такую возможность, или даже лучше, какая-то компания сделала абсолютно неработоспособный прототип - потому несчитос, все было сделано до нас. На Лиспе.

И я угадал! Смотрим на тред.

Моя точка зрения конечно другая. Что-то считается сделаным если оно уже сделано нормально, удобно, широко решает проблемы науки или индустрии. Инкрементальные улучшения являются прогрессом.

vertexua ★★★★★
()
Последнее исправление: vertexua (всего исправлений: 4)
Ответ на: комментарий от byko3y

Ну, наверное, booty по значимости все-таки идет после сайтов для онлайн микрокредитования.

Так по уровню ненужности вы в ногу идете, можно еще @katemisik и Лиззку в тему позвать - остальных выпилить (и тему лично для вас «закрепить»). Будете тупак в одной теме генерить.

У booty, правда, хоть какое-то применение есть, но по темам вы наравне.

У вас какая эта тема/пост с таким же вопросом за последний год по счету? И в каждой одно и тоже - вам примеры, вы - все не так, вы все врете, ничего не поменялось. Уровень неадекватности 146% просто (ладно бы первый раз, а так не первый и автор один).

P.S. @vertexua, немного опередили пока пост писал. Не один я эту шизу заметил.

atiradeon
()
Последнее исправление: atiradeon (всего исправлений: 2)

Современные видеокодеки например, HEVC, VP9, AV1, может революционности особо нет, но жмут сильно лучше, чем их предшественники.

Harald ★★★★★
()
Ответ на: комментарий от filosofia

This. Задача этого широкоизвестного луддита обосрать все что было создано до его среднего возраста и начала падения чувстительности к допамину от старости

vertexua ★★★★★
()
Последнее исправление: vertexua (всего исправлений: 2)
Ответ на: комментарий от byko3y

не пойму с чем ты споришь.
базовые алгоритмы и структуры данных придуманы в прошлом веке.
модели вычислений тоже оттуда.
из современного вспомнилось: вероятностные алгоритмы и не блокирующие структуры данных.
а, ну и квантовые вычисления.

Minona ★★☆
()

Нейронные сети

Конечно они известны еще с 70-х, тогда делали аналоговые схемы, но практического толку от них небыло. И только теперь в профессиональном софте начали появятся кнопки «сделать зашибись», допустим чтоб удалить аудио-шум за записи выделяют фрагмент записи где есть только шум, нажимают кнопку «Обучить» и потом «Применить к записи», и шума больше нет. В фоторедакторах перестали вручную выделять контуры объектов, все уже автоматом. Нейросеть сама опознает человека, машину, дерево и прочие тысячи образов на которых она обучалась. Мне кажется это революция в ПО, которая может многократно поднять производительность труда.

Aber ★★★★★
()
Ответ на: Нейронные сети от Aber

революция в ПО, которая может многократно поднять производительность труда

Более того, это вообще ключевой момент для продолжения развития человечества. Без ИИ люди уже не вывозят обрабатывать информационные потоки: слишком мало человеков для таких объёмов.

no-such-file ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.