python - 如何对XML大文件中的数据去重?
大家讲道理
大家讲道理 2017-04-17 14:58:11
[Python讨论组]

目的:xml->mysql

困难:xml中可能存在重复数据,但xml文件有400+M

问题:如何去掉这些重复数据?

目前的想法:每次insert数据之前,把待插数据和表存数据进行比对,但感觉效率不高。

请教:有没有更好的办法?

大家讲道理
大家讲道理

光阴似箭催人老,日月如移越少年。

全部回复(1)
高洛峰

才 400M 就算是大文件了么……

先做去重再导入数据呗。才400M的数据,拿个 dict 存需要去重的 key 就可以了。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号