Как удалить несколько слоев из предварительно обученной модели ResNet50V2 Keras

Я пытаюсь удалить несколько слоев из предварительно обученной модели Keras (ResNet50V2), но что бы я ни делал, это не работает. Я прочитал бесчисленное множество других вопросы о переполнении стека, о проблемах github и форуме сообщения, связанные с этой темой в прошлом месяце, и я до сих пор не могу заставить его работать... Поэтому я спрошу напрямую. Что я могу делать неправильно?

from ray.rllib.models.tf.tf_modelv2 import TFModelV2
from ray.rllib.utils.framework import try_import_tf
from ray.rllib.models import ModelCatalog
tf = try_import_tf()

def resnet_core(x):
    x = tf.keras.applications.resnet_v2.preprocess_input(x)
    resnet = tf.keras.applications.ResNet50V2(
        include_top=False,
        weights="imagenet",
    )
    remove_n = 130
    for i in range(remove_n):
        resnet._layers.pop()
        print(len(resnet._layers))
    s = tf.keras.models.Model(resnet.input, resnet._layers[-1].output, name='resnet-core')
    for layer in s.layers:
        print('adding layer',layer.name)
    for layer in s.layers[:]:
        layer.trainable = False
    s.build(None)

    return s(x)

class ImpalaCNN(TFModelV2):

    def __init__(self, obs_space, action_space, num_outputs, model_config, name):
        super().__init__(obs_space, action_space, num_outputs, model_config, name)

        inputs = tf.keras.layers.Input(shape=obs_space.shape, name="observations")
        x = inputs
        x = resnet_core(x)
        x = tf.keras.layers.Flatten()(x)
        x = tf.keras.layers.ReLU()(x)
        x = tf.keras.layers.Dense(units=256, activation="relu", name="hidden")(x)

        logits = tf.keras.layers.Dense(units=num_outputs, name="pi")(x)
        value = tf.keras.layers.Dense(units=1, name="vf")(x)

        self.base_model = tf.keras.Model(inputs, [logits, value])
        self.register_variables(self.base_model.variables)

    def forward(self, input_dict, state, seq_lens):
        obs = tf.cast(input_dict["obs"], tf.float32)
        logits, self._value = self.base_model(obs)
        return logits, state

    def value_function(self):
        return tf.reshape(self._value, [-1])


# Register model in ModelCatalog
ModelCatalog.register_custom_model("impala_cnn_tf", ImpalaCNN)

Ошибка, которую я получаю:

  ...
  File "/Users/manu/anaconda3/envs/procgen/lib/python3.7/site-packages/ray/rllib/evaluation/rollout_worker.py", line 376, in __init__
    self._build_policy_map(policy_dict, policy_config)
  File "/Users/manu/anaconda3/envs/procgen/lib/python3.7/site-packages/ray/rllib/evaluation/rollout_worker.py", line 859, in _build_policy_map
    policy_map[name] = cls(obs_space, act_space, merged_conf)
  File "/Users/manu/anaconda3/envs/procgen/lib/python3.7/site-packages/ray/rllib/policy/tf_policy_template.py", line 143, in __init__
    obs_include_prev_action_reward=obs_include_prev_action_reward)
  File "/Users/manu/anaconda3/envs/procgen/lib/python3.7/site-packages/ray/rllib/policy/dynamic_tf_policy.py", line 163, in __init__
    framework="tf")
  File "/Users/manu/anaconda3/envs/procgen/lib/python3.7/site-packages/ray/rllib/models/catalog.py", line 317, in get_model_v2
    registered))
ValueError: It looks like variables {<tf.Variable 'default_policy/
conv4_block4_1_conv/kernel:0' ... } 
were created as part of <impala_cnn_tf.ImpalaCNN object at 
0x19a8ccc90> but does not appear in model.variables() 
({<tf.Variable 'default_policy/pi/
kernel:0' shape=(256, 15) dtype=float32> ...}). Did you forget to call
 model.register_variables() on the variables in question?

Ошибка указывает на то, что некоторые переменные из слоев, которые я пытаюсь пропустить, не были зарегистрированы, но это потому, что я не хочу их использовать! Любые идеи?

Больше контекста, если это поможет:

  • Если я устанавливаю remove_n = 0, я не вижу ошибки (но, конечно, используется весь ResNet50V2)
  • Я новичок в Keras и ML. Это может быть очень глупый вопрос.
  • Причина, по которой я пытаюсь удалить много слоев, а не только последний, заключается в том, что я хочу, чтобы модель поместилась на небольшом графическом процессоре.
  • Я пытаюсь обучить модель с помощью rllib для соревнования aicrowd procgen (используя соревнование для изучения Keras/RL)
  • Полный код здесь: https://github.com/maraoz/neurips2020-procgen-starter-kit/blob/master/models/impala_cnn_tf.py#L55
  • Полный журнал ошибок здесь: https://pastebin.com/X0Dk7wdd

Заранее спасибо!


person Manuel Araoz    schedule 20.08.2020    source источник


Ответы (1)


Вместо того, чтобы удалять слои, вы можете попробовать получить доступ к 130-му слою из последнего слоя. Затем вы можете построить новую модель, используя входные данные исходной модели и выходные данные этого слоя.

model = tf.keras.models.Model(resnet.input, resnet.layers[-130].output)

По сути, это будет делать то же самое, что и вы, но это намного проще и безопаснее, поскольку вы не получаете доступ к каким-либо частным свойствам самой модели.

person Richard X    schedule 20.08.2020
comment
Привет Ричард! Спасибо за ваш ответ. Я попробовал ваш подход, и я все еще получаю ValueError о том, что некоторые переменные не зарегистрированы. Я действительно не хочу, чтобы эти переменные регистрировались, потому что я хочу их удалить! Любые идеи? - person Manuel Araoz; 20.08.2020