以下是百度搜索引擎大致的工作流程和原理:
文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
抓取(Crawling):文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
1. 蜘蛛程序(Spider)文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
- 百度使用被称为“百度蜘蛛(baiduspider)”的程序来抓取网页。文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
- 从一些重要的种子网址开始,通过页面上存在的超级链接不断发现新的URL并进行抓取。文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
2. 抓取策略文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
- 深度优先遍历策略:沿着一个分支深入抓取直到没有链接再回溯。文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
- 宽度优先遍历策略:先抓取同一层级的页面再进入下一层级。文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
- 还会结合PR优先策略(根据网页的重要性如PageRank)、反链策略(参考外部链接情况)、社会化分享指导策略等。文章源自小武站https://1z345.cn/小武站-https://bbs.50-0.cn/367.html
3. 抓取过程中的要点
- 抓取友好性:受网站带宽、服务器稳定性等影响,要确保蜘蛛能顺利抓取。
- 多种URL重定向的识别:如http 301重定向、meta refresh重定向和js重定向等。
- 对网站抓取频次原则:根据网站更新频率(更新快则多抓取)、更新质量(低质页面即便更新多也可能少抓取)、连通度(保持畅通)、站点评价(综合打分)等来确定抓取频率。
- 抓取反作弊:防止进入抓取黑洞(如大量无意义或作弊页面)。
过滤(Filtering):
1. 去除重复内容:对于互联网上已经存在大量重复的网页内容不再需要存储。
2. 剔除低质量页面
- 内容空短,例如一些页面主体内容很少、加载速度极慢(加载广告等时间也算在内) 。
- 部分作弊网页,如通过隐藏文字、虚假链接等作弊手段的网页。
- 蜘蛛无法解析的技术实现的页面,如大量采用js、ajax等(用户访问可见但蜘蛛无法获取有效信息)。
收录(Indexing):
1. 对经过过滤的网页进行分析处理,将网页文本内容进行分词等操作,提取关键信息。
2. 构建索引数据库:
- 网页信息标准化后存储到索引库中,以便后续快速检索。
- 索引中包含网页标题、关键词、内容、链接等多方面信息。
排序(Ranking):
1. 相关性计算
- 分析网页内容与用户检索需求的匹配程度,包括网页包含的关键词个数、关键词出现位置、外部网页指向该页面所用的锚文本等。
2. 权威性衡量
- 更倾向于将权威网站提供的内容排在前面,百度会评估网站的权威性 。
3. 时效性判断
- 新出现且承载新鲜内容的网页有时效性优势 。
4. 重要性评估
- 评估网页内容与用户需求匹配的重要程度。
5. 丰富度分析
- 网页内容丰富程度,是否能全面满足用户需求等。
6. 受欢迎程度
- 例如网页的点击率、用户停留时间、分享转发等数据能反映受欢迎程度。
当用户在百度搜索框输入关键词后,搜索引擎迅速从索引库中查找匹配的网页,并根据排序算法对这些网页进行排序,然后将搜索结果呈现在用户面前。同时,百度的算法也在不断演进和调整,以适应互联网内容的变化、打击作弊行为、提升用户搜索体验等。