Теорема о распределении простых чисел


Теорема о распределении простых чисел — теорема аналитической теории чисел, описывающая асимптотику распределения простых чисел, которая утверждает, что функция распределения простых чисел (количество простых чисел на отрезке ) растёт с увеличением как , то есть:

Грубо говоря, это означает, что у случайно выбранного числа от 1 до вероятность оказаться простым примерно равна .

Также эта теорема может быть эквивалентным образом переформулирована для описания поведения -го простого числа : она утверждает, что

(здесь и далее запись означает, что когда аргумент функций стремится к бесконечности).

Более точно распределение простых чисел описывает функция интегрального логарифма. При справедливости гипотезы Римана верно[1]

Первым статистическую закономерность в расположении простых чисел подметил Гаусс. В письме Энке (1849) он сообщил, что ещё в 1792 или 1793 году, чисто эмпирически, обнаружил, что плотность простых чисел «в среднем близка к величине, обратно пропорциональной логарифму»[2]. К этому времени, основываясь на таблицах простых чисел, составленных Фелкелем и Вегой, Лежандр предположил (в 1796 году), что функция распределения простых чисел (число простых чисел, не превосходящих x) может быть приближена выражением: