Есть ли способ ограничить объем данных, которые CURL будет извлекать? Я соскребаю данные со страницы размером 50 КБ, однако данные, которые мне нужны, находятся в верхней 1/4 страницы, поэтому мне действительно нужно получить только первые 10 КБ страницы.
Я спрашиваю, потому что мне нужно отслеживать много данных, что приводит к передаче около 60 ГБ данных в месяц, когда релевантно только около 5 ГБ этой пропускной способности.
Я использую PHP для обработки данных, однако у меня гибкий подход к извлечению данных, я могу использовать CURL, WGET, fopen и т. д.
Один подход, который я рассматриваю, это
$fp = fopen("http://www.website.com","r");
fseek($fp,5000);
$data_to_parse = fread($fp,6000);
Означает ли вышеизложенное, что я буду передавать только 6 КБ с www.website.com, или fopen загрузит www.website.com в память, что означает, что я все равно буду передавать полные 50 КБ?