Например, у меня есть таблица в bigquery с 10 миллионами строк, я хочу извлекать эту таблицу в Google Storage каждые 100 тысяч строк. Чтобы было понятно, мне нужно 100 файлов csv, и каждый из них имеет 100 тыс. Отдельных строк в таблице bigquery.
bq extract --noprint_header dataeset.abigtable gs://bucket/output/*.csv
С помощью приведенного выше кода, введенного в оболочку gcloud, таблица будет разделена на 10 или около того файлов в хранилище Google. Однако я не могу контролировать количество строк в каждом файле. Как я мог это контролировать?
limit 1000k offset 2000k
, а затем извлечь данные. Было бы намного проще, если бы я мог написать сценарий и выполнить задание цикла. Однако я понятия не имею, где мне запустить этот цикл и как. Есть ли какой-нибудь код, который работает в Google Shell и выполнит мою задачу? - person user11366694   schedule 30.04.2019