Точность (информатика)
Эта статья нуждается в дополнительных цитатах для проверки . ( март 2007 г. ) |
В информатике точность . числовой величины является мерой детализации, в которой эта величина выражается Обычно это измеряется в битах, но иногда и десятичными цифрами. Это связано с точностью в математике , которая описывает количество цифр, используемых для выражения значения.
Некоторые из стандартизированных прецизионных форматов:
- Формат с плавающей запятой половинной точности
- Формат с плавающей запятой одинарной точности
- Формат двойной точности с плавающей запятой
- Формат с плавающей запятой четырехкратной точности
- Формат чисел с плавающей запятой восьмеричной точности
Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются практически на всех платформах. Использование формата половинной точности растет, особенно в области машинного обучения , поскольку многие алгоритмы машинного обучения по своей сути устойчивы к ошибкам.
Ошибка округления
[ редактировать ]Точность часто является источником ошибок округления в вычислениях . Количество битов, используемых для хранения числа, часто приводит к некоторой потере точности. Примером может быть сохранение «sin(0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Ошибка часто увеличивается по мере того, как последующие вычисления выполняются с использованием данных (хотя ее также можно уменьшить).
См. также
[ редактировать ]- Арифметика произвольной точности
- Повышенная точность
- Детализация
- IEEE754 (стандарт IEEE с плавающей запятой)
- Целое число (информатика)
- Значительные цифры
- Усечение
- Приблизительные вычисления