【说站】搜狗搜索发布“石破算法”,针对网站恶劣采集问题

2022-11-24 17:37:29 浏览数 (1)

印象中搜狗搜索之前似乎都没有公开发布过具体的算法,直到被腾讯收购后,官方平台的公开了一系列搜狗搜索相关的业务,现在也搜狗搜索资源平台也发布了一篇关于算法的公告:【石破算法】网站恶劣采集问题整改通知

为促进搜索内容生态健康发展,保障用户的浏览体验,搜索将于 6 月 17 日推出石破算法。该算法旨在对包含恶劣采集行为的链接、网站进行识别,根据网站作弊程度落实相应的清洗打压措施。恶劣采集标准解读与示例如下,烦请合作方自查并于算法上线前完成全面整改。

1. 内容逻辑混乱:采集不同文章进行拼凑或相同文章的重复片段堆叠成一篇文章,文章前后无逻辑关系,致使用户理解困难;

2. 内容结构混乱:采集后未进行编辑导致的文章排版混乱、无关信息冗杂、功能丢失等问题,难以为用户提供有效信息;

3. 网站由大量采集内容构成:网站缺少原创/独有内容,即多为批量采集并未进行编辑整理的内容,整体内容质量较低 ;

4. 跨领域采集:网站采集大量与主要经营领域无关内容用以获取流量的行为也会被判定为恶劣采集;

其实稍微细想就能明白,并不是搜索引擎打击采集或者转载,而是打击恶劣采集,批量生成和内容混乱不相干的内容,并不是针对网站采集或者转载一些优质的文章。

收藏 | 0点赞 | 0打赏

0 人点赞