LINUX.ORG.RU

История изменений

Исправление d_Artagnan, (текущая версия) :


...Проблема в термических флуктуациях. Они мешают масштабированию этой идеи. 2-4-6-8 q-бит — это пожалуйста. 16 q-бит — это 2^16 = 65526 состояний. Параллельно считает? Но 65536 состояний перебрать можно и последовательно за миллисекунды... Проблема сделать больше q-бит (штук 100 хотя бы) и сохранить при этом когерентность достаточно долго, чтобы хоть что-то можно было посчитать.
И это не проблема производства. Сделать тот же чип с большим числом элементов можно (литография там не такого уж и высокого разрешения), только он работать не будет.
Проблемы с масштабируемостью возникают из-за сложностей в поддержании когерентности (между большим числом пространственно-распределенных частиц). Как известно, чем больше частиц взаимодействуют, тем меньше расстояние между соседними квантовыми уровнями такой сложной системы (которые, в пределе бесконечного числа частиц, переходят в непрерывные зоны), тем проще термическим флуктуациям случайно перебрасывать систему между этими уровнями, нарушая когерентность.


Давай, показывай, где в цитате ботаник ошибается насчет Ъ-квантового компьютинга.

upd: и опять-таки, DWave все же квантовый компьютер предлагает ,как ни странно. Почитай не что такое «квантовый компьютер», а что такое «метод квантового отжига» :)

Исправление d_Artagnan, :


...Проблема в термических флуктуациях. Они мешают масштабированию этой идеи. 2-4-6-8 q-бит — это пожалуйста. 16 q-бит — это 2^16 = 65526 состояний. Параллельно считает? Но 65536 состояний перебрать можно и последовательно за миллисекунды... Проблема сделать больше q-бит (штук 100 хотя бы) и сохранить при этом когерентность достаточно долго, чтобы хоть что-то можно было посчитать.
И это не проблема производства. Сделать тот же чип с большим числом элементов можно (литография там не такого уж и высокого разрешения), только он работать не будет.
Проблемы с масштабируемостью возникают из-за сложностей в поддержании когерентности (между большим числом пространственно-распределенных частиц). Как известно, чем больше частиц взаимодействуют, тем меньше расстояние между соседними квантовыми уровнями такой сложной системы (которые, в пределе бесконечного числа частиц, переходят в непрерывные зоны), тем проще термическим флуктуациям случайно перебрасывать систему между этими уровнями, нарушая когерентность.


Давай, показывай, где в цитате ботаник ошибается.

upd: и опять-таки, DWave все же квантовый компьютер предлагает ,как ни странно. Почитай не. что такое «квантовый компьютер», а что такое «метод квантового отжига» :)

Исходная версия d_Artagnan, :


...Проблема в термических флуктуациях. Они мешают масштабированию этой идеи. 2-4-6-8 q-бит — это пожалуйста. 16 q-бит — это 2^16 = 65526 состояний. Параллельно считает? Но 65536 состояний перебрать можно и последовательно за миллисекунды... Проблема сделать больше q-бит (штук 100 хотя бы) и сохранить при этом когерентность достаточно долго, чтобы хоть что-то можно было посчитать.
И это не проблема производства. Сделать тот же чип с большим числом элементов можно (литография там не такого уж и высокого разрешения), только он работать не будет.
Проблемы с масштабируемостью возникают из-за сложностей в поддержании когерентности (между большим числом пространственно-распределенных частиц). Как известно, чем больше частиц взаимодействуют, тем меньше расстояние между соседними квантовыми уровнями такой сложной системы (которые, в пределе бесконечного числа частиц, переходят в непрерывные зоны), тем проще термическим флуктуациям случайно перебрасывать систему между этими уровнями, нарушая когерентность.


Давай, показывай, где в цитате ботаник ошибается.