Не совсем на тему Linux Development, но подумал, что раз тут водятся Java-программеры, кто-нибудь подскажет что-нибудь умное. Теперь по существу вопроса: имеем следующий код:
float a = 0.9373f; float b = 0.0005f; System.out.println(a+b);
Я совершенно логично полагаю, что результат должен быть 0.9378, в то время как Sun JDK 1.4.2_04 считает, что результат 0.93780005. Кто из нас дурак? (кстати, выражение 0.9374f + 0.0005f Жаба корректно считает равным 0.9379).