Настройка зонального постоянного диска — Google Compute Engine

Я запускаю сервер JupyterHub в экземпляре Google Cloud Compute, и недавно у меня возникла проблема, из-за которой у меня закончилось место на жестком диске, что привело к зависанию сервера JupyterHub с 500 ошибками и т. д. Я должен упомянуть, что я использую Самый маленький JupyterHub для запуска сервера JupyterHub. Я рассмотрел варианты расширения пространства на жестком диске моего экземпляра, и, похоже, рекомендуемым действием было подключение зонального постоянного диска. Я следовал инструкциям Google и похоже, что он прикреплен как и ожидалось. См. вывод df -h ниже, из которого следует, что он был смонтирован, как и ожидалось.

Вывод df -h предполагает, что он был смонтирован, как и ожидалось

Однако я не могу понять, действительно ли этот новый жесткий диск используется для хранения сервером VM / JupyterHub. Я беспокоюсь, что, поскольку я продолжаю использовать сервер JupyterHub, он просто снова заполнит исходный 20-гигабайтный диск /dev/sda1 без использования нового 200-гигабайтного /dev/sdb для переполнения. Как я могу проверить, будет ли зональный постоянный диск использоваться должным образом, чтобы избежать остановки JupyterHub из-за того, что на жестком диске не осталось места?

Я действительно не эксперт в этом, поэтому заранее извиняюсь, если это глупый вопрос.

Заранее спасибо!


person Jack Power    schedule 01.10.2020    source источник


Ответы (2)


Я думаю, что самый простой способ решить эту проблему — изменить размер файловой системы. /dev/sda1 Вы можете проверить этот документ для получения дополнительной информации.

  1. Перейти к Страница Экземпляры ВМ.
  2. Остановите свой экземпляр.
  3. Перейти к Страница Диски, чтобы увидеть список зональных постоянных дисков в вашем проекте.
  4. Щелкните имя диска, размер которого вы хотите изменить.
  5. На странице сведений о диске нажмите Изменить.
  6. В поле Размер введите новый размер вашего диска.
  7. Нажмите Сохранить, чтобы применить изменения к диску.
  8. Запустите снова свой экземпляр.

Я воспроизвожу его в своем собственном экземпляре. Это моя файловая система до изменения введите здесь описание изображения

После изменения размера моего диска:

введите здесь описание изображения

Другим вариантом для вашего случая является изменение размера файловой системы и разделов на зональный постоянный диск, чтобы операционная система могла получить доступ к дополнительному пространству.

person Jose Luis Delgadillo    schedule 01.10.2020
comment
Спасибо Хосе. Один вопрос, я следовал вашему методу, а затем попытался изменить размер системы, чтобы операционная система могла получить доступ к новому пространству. Я перешел по указанной вами ссылке. Я так понимаю, поскольку это загрузочный диск, мне пришлось выполнить шаг 4 и использовать GrowPart для увеличения раздела. Однако, когда я делаю это, запустив sudo GrowPart /dev/sda 1. Я получаю следующую ошибку NOCHANGE: раздел 1 имеет размер 83658719. он не может быть увеличен. Затем, когда я перехожу к следующему шагу 5 и пытаюсь выполнить sudo resize2fs /dev/sda, я получаю, что файловая система уже имеет длину 10457339 (4k) блоков. Нечего делать!. Любые идеи? - person Jack Power; 02.10.2020
comment
Я думаю, вам следует размонтировать дополнительный диск, который вы уже смонтировали, и просто выполнить шаги для первого варианта изменения размера загрузочного диска. Таким образом, вы сможете сразу увидеть изменения. С другой стороны, если вы хотите продолжить добавление этого диска, я нашел этот пост, в котором эта ошибка устранена. - person Jose Luis Delgadillo; 02.10.2020

Вы можете проверить эту ссылку, чтобы изменить каталог, который используется ваш сервер JupyterHub.

Другим обходным путем будет увеличение размера диска по умолчанию (sda1). Вы можете сделать это, сначала остановив свой экземпляр, а затем перейдите в раздел Compute Engine › Disks. Нажмите на диск своего экземпляра, затем нажмите «Изменить» в верхней части страницы. Введите новый размер диска, который вы хотите, затем нажмите «Сохранить».

person Alex G    schedule 01.10.2020