用内置的关联数组,关联数组在分配内存时的连续性和良好的哈希设计可以让查找的复杂度从O(N)下降到O(1),当然百万数据是有点多,如果数据长度还很大那只有用空间换时间,用特殊的加载方法把数据全部加载到内存后用PHP的数组下标作为关键字查重。这样你只需要对数据进行一遍读取遍历就可以完成存储查重两个操作。
这个不是很难吧。不过在这个上面很难描述啊
这个网站就是专门的论文查重的,谢谢采纳!
百万数据,肯定会报错
思路是可以的: //步骤一,分句,把原文$text按标点符号分为句子存入数组$arr,只保存长度15个字符以上的句子 //本步骤应该没有难度 //步骤二,判断数组$arr中的每个句子在现有数据库中是否匹配 foreach ($arr as $str){ if CheckS($str) 标记
一般学术期刊社都有学术不端检查系统的。
337 浏览 7 回答
359 浏览 6 回答
131 浏览 8 回答
215 浏览 6 回答
81 浏览 6 回答
236 浏览 5 回答
356 浏览 9 回答
340 浏览 6 回答
106 浏览 1 回答
186 浏览 6 回答
341 浏览 6 回答
305 浏览 8 回答
353 浏览 4 回答
280 浏览 4 回答
220 浏览 3 回答
86 浏览 4 回答
340 浏览 3 回答
314 浏览 5 回答
162 浏览 3 回答
236 浏览 4 回答
139 浏览 3 回答
281 浏览 6 回答
268 浏览 4 回答
216 浏览 6 回答
314 浏览 3 回答