Создание большого количества наборов данных с помощью h5py — невозможно зарегистрировать атом типа данных (невозможно вставить повторяющийся ключ)

Я пытаюсь сохранить большое количество структурированных массивов numpy в виде наборов данных в файле hdf5.
Например,
f['дерево1'] = структурированный_массив1
.
.
f['tree60000'] = структурированный_массив60000 (всего ~60000 деревьев),

Примерно на 70% пути к чтению файла я получаю сообщение об ошибке RuntimeError: невозможно зарегистрировать атом типа данных (не удается вставить дубликат ключа)

Эта проблема возникает только для очень большого файла ascii (10e7 строк, 5 ГБ). Не происходит, если файл рядом (10е6 строк, 500мб). Это также не происходит, если я беру тип данных и просто сохраняю его как массив строк.

Я могу решить эту проблему, если перестану читать файл на полпути, закрою свой терминал, открою его снова и продолжу чтение файла, начиная с половины пути до конца (я сохраняю номер строки, на которой я закончил). Я попытался открыть и закрыть файл hdf5 в самой функции python, но это не сработало.

dt = [
('scale', 'f4'), 
('haloid', 'i8'), 
('scale_desc', 'f4'), 
('haloid_desc', 'i8'), 
('num_prog', 'i4'), 
('pid', 'i8'), 
('upid', 'i8'), 
('pid_desc', 'i8'), 
('phantom', 'i4'), 
('mvir_sam', 'f4'), 
('mvir', 'f4'), 
('rvir', 'f4'), 
('rs', 'f4'), 
('vrms', 'f4'), 
('mmp', 'i4'), 
('scale_lastmm', 'f4'), 
('vmax', 'f4'), 
('x', 'f4'), 
('y', 'f4'), 
('z', 'f4'), 
('vx', 'f4'), 
('vy', 'f4'), 
('vz', 'f4'), 
('jx', 'f4'), 
('jy', 'f4'), 
('jz', 'f4'), 
('spin', 'f4'), 
('haloid_breadth_first', 'i8'), 
('haloid_depth_first', 'i8'), 
('haloid_tree_root', 'i8'), 
('haloid_orig', 'i8'), 
('snap_num', 'i4'), 
('haloid_next_coprog_depthfirst', 'i8'), 
('haloid_last_prog_depthfirst', 'i8'), 
('haloid_last_mainleaf_depthfirst', 'i8'), 
('rs_klypin', 'f4'), 
('mvir_all', 'f4'), 
('m200b', 'f4'), 
('m200c', 'f4'), 
('m500c', 'f4'), 
('m2500c', 'f4'), 
('xoff', 'f4'), 
('voff', 'f4'), 
('spin_bullock', 'f4'), 
('b_to_a', 'f4'), 
('c_to_a', 'f4'), 
('axisA_x', 'f4'), 
('axisA_y', 'f4'), 
('axisA_z', 'f4'), 
('b_to_a_500c', 'f4'), 
('c_to_a_500c', 'f4'), 
('axisA_x_500c', 'f4'), 
('axisA_y_500c', 'f4'), 
('axisA_z_500c', 'f4'), 
('t_by_u', 'f4'), 
('mass_pe_behroozi', 'f4'), 
('mass_pe_diemer', 'f4')
]

def read_in_trees(self):
    """Store each tree as an hdf5 dataset.
    """  
    with open(self.fname) as ascii_file:
        with h5py.File(self.hdf5_name,"r+") as f:
            tree_id = ""  
            current_tree = []
            for line in ascii_file:
                if(line[0]=='#'): #new tree
                        arr = np.array(current_tree, dtype = dt)
                        f[tree_id] = arr
                        current_tree = []
                    tree_id = line[6:].strip('\n')
                else: #read in next tree element
                    current_tree.append(tuple(line.split()))
    return 

Ошибка:

/Volumes/My Passport for Mac/raw_trees/bolshoi/rockstar/asciiReaderOne.py in read_in_trees(self)
    129                             arr = np.array(current_tree, dtype = dt)
    130                             # depth_sort =  arr['haloid_depth_first'].argsort()
--> 131                             f[tree_id] = arr
    132                             current_tree = []
    133                         first_line = False

/Library/Python/2.7/site-packages/h5py/_objects.so in h5py._objects.with_phil.wrapper (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/_objects.c:2458)()

/Library/Python/2.7/site-packages/h5py/_objects.so in h5py._objects.with_phil.wrapper (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/_objects.c:2415)()

/Library/Python/2.7/site-packages/h5py/_hl/group.pyc in __setitem__(self, name, obj)
    281 
    282         else:
--> 283             ds = self.create_dataset(None, data=obj, dtype=base.guess_dtype(obj))
    284             h5o.link(ds.id, self.id, name, lcpl=lcpl)
    285 

/Library/Python/2.7/site-packages/h5py/_hl/group.pyc in create_dataset(self, name, shape, dtype, data, **kwds)
    101         """
    102         with phil:
--> 103             dsid = dataset.make_new_dset(self, shape, dtype, data, **kwds)
    104             dset = dataset.Dataset(dsid)
    105             if name is not None:

/Library/Python/2.7/site-packages/h5py/_hl/dataset.pyc in make_new_dset(parent, shape, dtype, data, chunks, compression, shuffle, fletcher32, maxshape, compression_opts, fillvalue, scaleoffset, track_times)
    124 
    125     if data is not None:
--> 126         dset_id.write(h5s.ALL, h5s.ALL, data)
    127 
    128     return dset_id

/Library/Python/2.7/site-packages/h5py/_objects.so in h5py._objects.with_phil.wrapper (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/_objects.c:2458)()

/Library/Python/2.7/site-packages/h5py/_objects.so in h5py._objects.with_phil.wrapper (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/_objects.c:2415)()

/Library/Python/2.7/site-packages/h5py/h5d.so in h5py.h5d.DatasetID.write (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5d.c:3260)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t.py_create (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:15314)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t.py_create (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:14903)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t._c_compound (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:14192)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t.py_create (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:15314)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t.py_create (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:14749)()

/Library/Python/2.7/site-packages/h5py/h5t.so in h5py.h5t._c_float (/Users/travis/build/MacPython/h5py-wheels/h5py/h5py/h5t.c:12379)()

RuntimeError: Unable to register datatype atom (Can't insert duplicate key)

person kevinttan    schedule 02.07.2015    source источник
comment
Похоже, tree_id повторяется в ascii_file. Если нет реальных дубликатов, возможно, есть какое-то усечение. Или какой-то c код в интерфейсе индексируется маленькими целыми числами. Есть ли какой-то h5py flush метод? т.е. сказать ему, сохранить наборы данных, которые у вас есть, и начать все сначала?   -  person hpaulj    schedule 02.07.2015
comment
Ваш диапазон ошибок 10e6/7 близок к 2*32, что может вызвать проблемы на 32-битных машинах.   -  person hpaulj    schedule 02.07.2015
comment
Дублирующих деревьев нет. Данные hdf5 сохраняются, когда я закрываю терминал и снова начинаю на полпути, но я ищу менее хакерское решение.   -  person kevinttan    schedule 02.07.2015


Ответы (1)


Вы получаете стек ошибок? Указание, где в коде выдается ошибка?

Вы сообщаете: error RuntimeError: Unable to register datatype atom (Can't insert duplicate key)

В /usr/lib/python3/dist-packages/h5py/_hl/datatype.py

class Datatype(HLObject):
    # Represents an HDF5 named datatype stored in a file.
    # >>> MyGroup["name"] = numpy.dtype("f")
    def __init__(self, bind):
        """ Create a new Datatype object by binding to a low-level TypeID.

Я бросаю предположение здесь. Ваш dt содержит 57 терминов. Я подозреваю, что каждый раз, когда вы добавляете tree в файл, он регистрирует каждое поле как новый datatype.

In [71]: (57*10e7*.7)/(2**32)
Out[71]: 0.9289942681789397

70% от 57*10е7 близко к 2*32. Если Python/numpy использует int32 в качестве идентификатора dtype, вы можете достичь этого предела.

Нам пришлось бы больше копаться в коде h5py или numpy, чтобы найти, кто выдает это сообщение об ошибке.

Добавив массив в файл с помощью:

f[tree_id] = arr

вы помещаете каждый массив в набор данных в новый Group. Если каждый набор данных имеет dtype или тип данных для каждого поля массива, вы можете легко получить 2*32 типа данных.

С другой стороны, если бы вы могли хранить несколько arr в группе или наборе данных, вы могли бы избежать этой регистрации тысяч типов данных. Я недостаточно знаком с h5py, чтобы подсказать, как это сделать.


Интересно, работает ли эта последовательность для повторного использования типа данных для нескольких наборов данных:

dt1=np.dtype(dt)
gg= f.create_group('testgroup')
gg['xdtype']=dt1
# see h5py.Datatype doc
xdtype=gg['xdtype']
x=np.zeros((10,),dtype=xdtype)
gg['tree1']=x
x=np.ones((10,),dtype=xdtype)
gg['tree2']=x

Следуя документу Datatype, я пытаюсь зарегистрировать именованный тип данных и использовать его для каждого из наборов данных, добавленных в группу.

In [117]: isinstance(xdtype, h5py.Datatype)
Out[117]: True
In [118]: xdtype.id
Out[118]: <h5py.h5t.TypeCompoundID at 0xb46e0d4c>

Итак, если я правильно читаю def make_new_dset, это обходит вызов py_create.

person hpaulj    schedule 02.07.2015
comment
Я отправил сообщение об ошибке. Я также обнаружил, что код останавливается после создания ~48000 наборов данных. Каждый набор данных хранит свой собственный тип данных. - person kevinttan; 03.07.2015
comment
обычно, сколько элементов (строк) содержится в каждом наборе данных tree? - person hpaulj; 03.07.2015
comment
Я думаю, что нашел способ зарегистрировать dtype, чтобы он не создавал новый набор для каждого tree. - person hpaulj; 03.07.2015
comment
Я попробовал ваш код для повторного использования типа данных, но все равно получил ту же ошибку. - person kevinttan; 06.07.2015
comment
Кажется, что у него заканчиваются dset_ids, а не идентификаторы dtype, но проблема возникает только тогда, когда я указываю dtype. - person kevinttan; 08.07.2015