#include <iostream>
#include <cstdlib>
typedef unsigned long long int ULL;
ULL gcd(ULL a, ULL b)
{
for(; b >0 ;)
{
ULL rem = a % b;
a = b;
b = rem;
}
return a;
}
void pollard_rho(ULL n)
{
ULL i = 0,y,k,d;
ULL *x = new ULL[2*n];
x[0] = rand() % n;
y = x[0];
k = 2;
while(1){
i = i+1;
std::cout << x[i-1];
x[i] = (x[i-1]*x[i-1]-1)%n;
d = gcd(abs(y - x[i]),n);
if(d!= 1 && d!=n)
std::cout <<d<<std::endl;
if(i+1==k){
y = x[i];
k = 2*k;
}
}
}
int main()
{
srand(time(NULL));
pollard_rho(10);
}
Эта реализация получена из 2-го издания CLRS (номер страницы 894). while(1)
выглядит подозрительно для меня. Каким должно быть условие завершения цикла while?
Я пробовал k<=n
, но это не работает. Я получаю ошибку сегментации. Что за ошибка в коде и как ее исправить?
while
; завершения нет, поэтомуi
становится большим и индексируется вx
с недопустимым значением, что вызывает ошибку сегментации. - person Richard Schneider   schedule 18.05.2011