Точность (информатика) - Precision (computer science)

В компьютерной науке , то точность численного количества является мерой детализации , в которой выражается в количестве. Обычно это измеряется в битах, но иногда и в десятичных цифрах. Это связано с точностью в математике , которая описывает количество цифр, которые используются для выражения значения.

Некоторые из стандартных форматов точности:

Из них редко используется формат восьмеричной точности. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются почти на всех платформах. Использование формата половинной точности растет, особенно в области машинного обучения, поскольку многие алгоритмы машинного обучения по своей природе устойчивы к ошибкам.

Ошибка округления

Точность часто является источником ошибок округления в вычислениях . Количество битов, используемых для хранения числа, часто вызывает некоторую потерю точности. Примером может служить сохранение «sin (0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Затем ошибка часто увеличивается по мере того, как последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).

Смотрите также

Рекомендации