Деление на ноль


Деление на ноль в математике — деление, при котором делитель равен нулю. Такое деление может быть формально записано как , где  — делимое.

Исторически одна из первых ссылок на математическую невозможность присвоения значения а0 содержится в критике Джорджа Беркли исчисления бесконечно малых.

Деление на ноль недопустимо во многих алгебраических структурах (например, в полях, кольцах). Однако понятие кольца можно расширить так, чтобы деление на ноль было возможным. Получившаяся структура называется колесо.

В то же время, согласно определению делимости целых чисел, если для некоторого целого числа и целого числа существует такое целое число , что , то говорят, что число делится нацело на (обозначается ) или что делит (обозначается ).

Поскольку при умножении любого числа на ноль в результате мы всегда получаем ноль, при делении обеих частей выражения x × 0 = y × 0, верного вне зависимости от значения x и y, на 0 получаем неверное в случае произвольно заданных переменных выражение x = y. Поскольку ноль может быть задан не явно, но в виде достаточно сложного математического выражения, к примеру в форме разности двух значений, сводимых друг к другу путём алгебраических преобразований, такое деление может быть достаточно неочевидной ошибкой. Незаметное внесение такого деления в процесс доказательства с целью показать идентичность заведомо разных величин, тем самым доказывая любое абсурдное утверждение, является одной из разновидностей математического софизма[1].

В программировании, в зависимости от языка программирования, типа данных и значения делимого, попытка деления на ноль может приводить к различным последствиям. Принципиально различны последствия деления на ноль в целой и вещественной арифметике: