Как я могу удалить повторяющиеся строки из файла?

У меня есть файл с одним столбцом. Как удалить повторяющиеся строки в файле?


person Community    schedule 31.07.2009    source источник


Ответы (14)


В Unix/Linux используйте команду uniq, согласно ответу Дэвида Локка, или sort, согласно комментарию Уильяма Перселла.

Если вам нужен скрипт Python:

lines_seen = set() # holds lines already seen
outfile = open(outfilename, "w")
for line in open(infilename, "r"):
    if line not in lines_seen: # not a duplicate
        outfile.write(line)
        lines_seen.add(line)
outfile.close()

Обновление: комбинация sort/uniq удалит дубликаты, но вернет файл с отсортированными строками, которые могут соответствовать или не соответствовать вашим требованиям. Приведенный выше скрипт Python не меняет порядок строк, а просто удаляет дубликаты. Конечно, чтобы сценарий выше тоже сортировался, просто пропустите outfile.write(line) и вместо этого сразу после цикла сделайте outfile.writelines(sorted(lines_seen)).

person Vinay Sajip    schedule 31.07.2009
comment
Вам нужно запустить sort перед запуском uniq, потому что uniq удалит строки только в том случае, если они идентичны предыдущей строке. - person David Locke; 01.08.2009
comment
Да, я сослался на ваш ответ, но не повторил, что это sort, за которым следует uniq. - person Vinay Sajip; 01.08.2009
comment
+1 за это решение. Еще одним усовершенствованием может быть сохранение суммы md5 строки и сравнение суммы md5 текущей строки. Это должно значительно сократить требования к памяти. (см. docs.python.org/library/md5.html) - person joeslice; 01.08.2009
comment
+1 Я мог бы сам написать этот код, но зачем писать, когда можно погуглить :) - person Adam Gent; 11.09.2012
comment
Этот ответ дает Traceback (most recent call last): File "sort and unique.py", line 5, in <module> outfile.write(line) MemoryError как его решить - person Jaffer Wilson; 29.03.2017
comment
@VinaySajip понимает, что вам нужно добавить что-то, что вы хотите удалить, в lines_seen = set(). Что делать, если у меня есть строка Word Syllable Phone, как именно мне это сделать? - person dgr379; 09.03.2018
comment
Это все еще лучший ответ в 2021 году? - person MasayoMusic; 09.01.2021

Если вы используете *nix, попробуйте выполнить следующую команду:

sort <file name> | uniq
person David Locke    schedule 31.07.2009

uniqlines = set(open('/tmp/foo').readlines())

это даст вам список уникальных строк.

записать это обратно в какой-либо файл будет так же просто, как:

bar = open('/tmp/bar', 'w').writelines(set(uniqlines))

bar.close()
person marcell    schedule 01.08.2009
comment
Верно, но строки будут располагаться в случайном порядке в зависимости от того, как они хэшируются. - person Vinay Sajip; 01.08.2009
comment
Проблема с этим кодом в том, что после того, как вы напишете, в последней строке нет '\n'. Тогда выходные результаты будут иметь одну строку с объединенными 2 строками. - person wmlynarski; 02.11.2017
comment
ваше решение подходит для небольших файлов. где размер файла до 300 МБ или 400 МБ. не более того. - person Shravan Yadav; 18.03.2018

Ты можешь сделать:

import os
os.system("awk '!x[$0]++' /path/to/file > /path/to/rem-dups")

Здесь вы используете bash в python :)

У вас есть и другой способ:

with open('/tmp/result.txt') as result:
        uniqlines = set(result.readlines())
        with open('/tmp/rmdup.txt', 'w') as rmdup:
            rmdup.writelines(set(uniqlines))
person MLSC    schedule 07.06.2014

Это перефразирование того, что уже было сказано здесь - вот то, что я использую.

import optparse

def removeDups(inputfile, outputfile):
        lines=open(inputfile, 'r').readlines()
        lines_set = set(lines)
        out=open(outputfile, 'w')
        for line in lines_set:
                out.write(line)

def main():
        parser = optparse.OptionParser('usage %prog ' +\
                        '-i <inputfile> -o <outputfile>')
        parser.add_option('-i', dest='inputfile', type='string',
                        help='specify your input file')
        parser.add_option('-o', dest='outputfile', type='string',
                        help='specify your output file')
        (options, args) = parser.parse_args()
        inputfile = options.inputfile
        outputfile = options.outputfile
        if (inputfile == None) or (outputfile == None):
                print parser.usage
                exit(1)
        else:
                removeDups(inputfile, outputfile)

if __name__ == '__main__':
        main()
person Arthur M    schedule 31.03.2015

получить все ваши строки в списке и сделать набор строк, и все готово. Например,

>>> x = ["line1","line2","line3","line2","line1"]
>>> list(set(x))
['line3', 'line2', 'line1']
>>>

Если вам нужно сохранить порядок строк, поскольку набор является неупорядоченной коллекцией, попробуйте следующее:

y = []
for l in x:
    if l not in y:
        y.append(l)

и запишите содержимое обратно в файл.

person shahjapan    schedule 01.08.2009
comment
Верно, но строки будут располагаться в случайном порядке в зависимости от того, как они хэшируются. - person Vinay Sajip; 01.08.2009

Вкладыши Python One:

python -c "import sys; lines = sys.stdin.readlines(); print ''.join(sorted(set(lines)))" < InputFile > OutputFile
person Rahul Patil    schedule 15.09.2013

добавив к ответу @David Locke, с системами * nix, которые вы можете запустить

sort -u messy_file.txt > clean_file.txt

который создаст clean_file.txt удаление дубликатов в алфавитном порядке.

person All Іѕ Vаиітy    schedule 27.01.2017
comment
Это удалит дубликаты, но изменит (сортирует) порядок строк. Не совсем то, что спросили. - person jcarballo; 12.12.2018

Посмотрите на сценарий, который я создал для удаления дубликатов писем из текстовых файлов. Надеюсь это поможет!

# function to remove duplicate emails
def remove_duplicate():
    # opens emails.txt in r mode as one long string and assigns to var
    emails = open('emails.txt', 'r').read()
    # .split() removes excess whitespaces from str, return str as list
    emails = emails.split()
    # empty list to store non-duplicate e-mails
    clean_list = []
    # for loop to append non-duplicate emails to clean list
    for email in emails:
        if email not in clean_list:
            clean_list.append(email)
    return clean_list
    # close emails.txt file
    emails.close()
# assigns no_duplicate_emails.txt to variable below
no_duplicate_emails = open('no_duplicate_emails.txt', 'w')

# function to convert clean_list 'list' elements in to strings
for email in remove_duplicate():
    # .strip() method to remove commas
    email = email.strip(',')
    no_duplicate_emails.write(f"E-mail: {email}\n")
# close no_duplicate_emails.txt file
no_duplicate_emails.close()
person Francisco Duluc    schedule 10.05.2018

Если кто-то ищет решение, использующее хеширование и немного более яркое, вот что я сейчас использую:

def remove_duplicate_lines(input_path, output_path):

    if os.path.isfile(output_path):
        raise OSError('File at {} (output file location) exists.'.format(output_path))

    with open(input_path, 'r') as input_file, open(output_path, 'w') as output_file:
        seen_lines = set()

        def add_line(line):
            seen_lines.add(line)
            return line

        output_file.writelines((add_line(line) for line in input_file
                                if line not in seen_lines))
person Torkoal    schedule 28.02.2017
comment
Какой смысл добавлять ХЭШ строки в набор, если можно просто добавить саму строку? - person xrisk; 13.05.2018

Вот мое решение

if __name__ == '__main__':
f = open('temp.txt','w+')
flag = False
with open('file.txt') as fp:
    for line in fp:
        for temp in f:
            if temp == line:
                flag = True
                print('Found Match')
                break
        if flag == False:
            f.write(line)
        elif flag == True:
            flag = False
        f.seek(0)
    f.close()
person Unknown92    schedule 28.06.2013

редактировать его в том же файле

lines_seen = set() # holds lines already seen

with open("file.txt", "r+") as f:
    d = f.readlines()
    f.seek(0)
    for i in d:
        if i not in lines_seen:
            f.write(i)
            lines_seen.add(i)
    f.truncate()
person hamed alholi    schedule 01.04.2020

Читабельный и лаконичный

with open('sample.txt') as fl:
    content = fl.read().split('\n')

content = set([line for line in content if line != ''])

content = '\n'.join(content)

with open('sample.txt', 'w') as fl:
    fl.writelines(content)
person Ravgeet Dhillon    schedule 26.10.2020
comment
лучше использовать с открытым менеджером контекста, чтобы открыть файл, чтобы он был безопасно закрыт. Также чтение всего за один раз может не сработать, если файл большой. - person himanshu219; 26.10.2020

cat <filename> | grep '^[a-zA-Z]+$' | sort -u > outfile.txt

Для фильтрации и удаления повторяющихся значений из файла.

person Ashwaq    schedule 11.06.2021