3 回答

TA贡献1824条经验 获得超6个赞
所以这里有一个快速的答案,但它不是那么有效:
$ join -v1 <(sort FileA) <(sort FileB) | tee UniqueA
e0f886f2124804b87a81defdc38ad2b492458f34 /home/user/second.txt
$ join -v2 <(sort FileA) <(sort FileB) | tee UniqueB
650bc1eb1b24604819eb342f2ebc1bab464d9210 /home/user/third.txt
join 命令按键匹配两个已排序文件中的行(默认情况下,键是具有默认空间定界符的第一个字段)。但是,上面的命令效率不高,因为我们对文件进行了两次排序:一次是获取第一个文件 (-v1) 的唯一值,另一次是获取第二个文件 (-v2) 的唯一值。我很快就会发布一些改进。
您可以在单个调用中获取唯一的值,但原始文件会丢失。请参阅下面的代码:
$ join -v1 -v2 <(sort FileA) <(sort FileB)
650bc1eb1b24604819eb342f2ebc1bab464d9210 /home/user/third.txt
e0f886f2124804b87a81defdc38ad2b492458f34 /home/user/second.txt
在这一点上,我们几乎有了答案。我们拥有两个文件中所有不匹配的文件。此外,我们只对每个文件进行了一次排序。我相信这是有效的。但是,您丢失了“原点”信息。我们可以使用此迭代或代码用 sed 标记行:
$ join -v1 -v2 <(sort FileA | sed s/$/\ A/ ) <(sort FileB | sed s/$/\ B/ )
650bc1eb1b24604819eb342f2ebc1bab464d9210 /home/user/third.txt B
e0f886f2124804b87a81defdc38ad2b492458f34 /home/user/second.txt A
此时,我们有唯一的条目,我们知道它们来自哪个文件。如果您必须在单独的文件中获得结果,我想您可以使用awk(或只是更多的bash)来完成此操作。下面是包含 awk 的代码的又一次迭代:
join -v1 -v2 <(sort FileA | sed s/$/\ A/ ) <(sort FileB | sed s/$/\ B/ ) | awk '{ file="Unique" $3 ; print $1,$2 > file }

TA贡献1789条经验 获得超10个赞
一个只有bash的解决方案:
# create a file with a mark that help to find the source of the hash remove duplicate
sed 's/^\([0-9a-f]*\)[^0-9a-f]/\1=A=/' FileA | sort | uniq -w 32 > FileA.mark
sed 's/^\([0-9a-f]*\)[^0-9a-f]/\1=B=/' FileB | sort | uniq -w 32 > FileB.mark
# sort the 2 files together , keep only unique hashs
sort -t= FileA.mark FileB.mark | uniq -w 32 -c > HashCountFromAB
# if the count equal 1 ( provide by option -c from uniq )
# we use the mark to find the origin of the hash
grep '^ *1 [0-9a-f]*=A=' HashCountFromAB > FileA.uniq
grep '^ *1 [0-9a-f]*=B=' HashCountFromAB > FileB.uniq
添加回答
举报