Во многих туториалах приводится такой пример.
x += v*dt; Где v скорость в чем-то(пиксели например) за миллисекунду, а dt время между этим и прошлым кадром. Да вот только это неверно. Предположим фпс у нас не равно 60, а монитор максимально может отобразить 60 кадров. По сути настоящий dt(время между этим и прошлым кадром составляет всегда строго (1000/60)*N мс. Где N разумеется только целое число. Мы же по ошибке будем рисовать x чуть правее или чуть левее чем он должен быть на самом деле. Какие есть идеи решения этой проблемы?
П.С. а навеяно собственно багов в libGDX где даже на мощном оборудовании можно наблюдать дерганье спрайтов, одно из решений которое там предполагалось было принять dt всегда 1000/60 независимо от того сколько реально прошло время между кадрами, поскольку все равно(в случае быстрой производительности) реальные кадры на экране будут отображаться через 1000/60