扫码关注官方订阅号
目的:xml->mysql
困难:xml中可能存在重复数据,但xml文件有400+M
问题:如何去掉这些重复数据?
目前的想法:每次insert数据之前,把待插数据和表存数据进行比对,但感觉效率不高。
请教:有没有更好的办法?
光阴似箭催人老,日月如移越少年。
才 400M 就算是大文件了么……
先做去重再导入数据呗。才400M的数据,拿个 dict 存需要去重的 key 就可以了。
微信扫码关注PHP中文网服务号
QQ扫码加入技术交流群
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
PHP学习
技术支持
返回顶部
才 400M 就算是大文件了么……
先做去重再导入数据呗。才400M的数据,拿个 dict 存需要去重的 key 就可以了。