История изменений
Исправление praseodim, (текущая версия) :
Вот так, чтобы какая-то совсем революционно-новая технология возникла, у которой не имелось прототипа еще в 80-е, а в большинстве случаев еще в 60-70-е, я даже затрудняюсь назвать. Даже биткоин - это конечно новое в смысле криптовалюты, но сами по себе вычисления, которые в его основе, совсем не новые.
Если же смотреть с более практической точки зрения, то за эти 20 лет была доведена до практически полезного применения технология машинного обучения. Deep Learning, нейросетки, появились фреймворки TensorFlow, Torch (PyTorch) и другие - вот это вот все.
Сами нейросетки появились еще в 60-е, но тогда это была просто программистская забава. В 90-е могло разве что на суперкомпьютерах всерьез развиваться, а сейчас ушло в массы. Количество перешло в качество, как когда-то любили говорить. И я бы даже сказал, что еще не дошло до пика развития.
Еще одно на стыке программирования и аппаратуры - это пресловутые облака. Я не о концепции внедрения зондов и чтобы юзеры всё у «дяди» хранили, а о том, что кластерные технологии революционно развились до массового применения и сейчас нормально выглядит, например, заказать у Amazon с десяток тысяч CPU для расчетов. Все это на лету виртуально конфигурируется, может наращиваться и т.д.
P.S. Совсем забыл. Еще гомогенное шифрование, в том числе появление даже открытых библиотек, в основном (а от кого еще?) от гугла. Как-то оно совсем теоретически было еще лет 10 назад, а сейчас доработали до практического применения, хотя это все еще сильно новое дело.
Исходная версия praseodim, :
Вот так, чтобы какая-то совсем революционно-новая технология возникла, у которой не имелось прототипа еще в 80-е, а в большинстве случаев еще в 60-70-е, я даже затрудняюсь назвать. Даже биткоин - это конечно новое в смысле криптовалюты, но сами по себе вычисления, которые в его основе, совсем не новые.
Если же смотреть с более практической точки зрения, то за эти 20 лет была доведена до практически полезного применения технология машинного обучения. Deep Learning, нейросетки, появились фреймворки TensorFlow, Torch (PyTorch) и другие - вот это вот все.
Сами нейросетки появились еще в 60-е, но тогда это была просто программистская забава. В 90-е могло разве что на суперкомпьютерах всерьез развиваться, а сейчас ушло в массы. Количество перешло в качество, как когда-то любили говорить. И я бы даже сказал, что еще не дошло до пика развития.
Еще одно на стыке программирования и аппаратуры - это пресловутые облака. Я не о концепции внедрения зондов и чтобы юзеры всё у «дяди» хранили, а о том, что кластерные технологии революционно развились до массового применения и сейчас нормально выглядит, например, заказать у Amazon с десяток тысяч CPU для расчетов. Все это на лету виртуально конфигурируется, может наращиваться и т.д.