用户登录
用户注册

分享至

搜索引擎是软件吗 搜索引擎 所应用的算法

  • 作者: 依的那个旧
  • 来源: 51数据库
  • 2020-04-15

搜索引擎是软件吗

什么是搜索引擎,浏览器,客户端?之间的区别是什么

搜索引擎是存在于网络服务器中的一个系统,用于整合数据,寻找数据,提取数据的工具;浏览器属于客户端的一种,使用户能够便捷地浏览服务器上的内容。

所以说他们联系很紧密,用一句话表示:通过浏览器客户端来使用搜索引擎。

1. 搜索引擎:搜索引擎指自动从因特网搜集信息,经过一定整理以后,提供给用户进行查询的系统;2. 网页浏览器是个显示网站服务器或文件系统内的文件,并让用户与此些文件交互的一种应用软件3. 客户端(Client)或称为用户端,是指与服务器相对应,为客户提供本地服务的程序

搜索引擎就是一类网站,可以这样说吗?比如,百度就是一个搜索引擎...

首先您的网站必须是动态的,(通常由:Asp/Aspx/Php/Cgi/Jsp等)然后要结合数据库,如:Access,Mysql设计制作完成! 1.你必须至少会一种网站开发语言,如:Asp/Aspx/Php/Cgi/Jsp 2.具备1点以后,至少会一种数据库,如:Access,Mysql 3.具备以上2点后,制作一个页面,如:Search.asp 并在Search.asp页面中,先插入一表单,一文本框,如:文本框的值为SearchKey.表单Form1用Post提交到SearchOver.Asp 4.这时候你只要在SearchKey.asp页面,判断一下所搜索提交过来的关键字是否有在数据库存在有的话就显示出来,就没有就设一下,显示\"暂无你要搜索的任何内容\" 这中间你必须要用sql命令写,如:select 关键字 from 数据库表 ,where **** 等 总之要学会很多才可以做得到!如果你对网站不熟的话,恐怕很难哦.不过不要灰心,努力去学,自学Asp一到三个月就会小有所成的!

搜索引擎是什么意思

搜索引擎(search engine)是指根据一定的策略、运用特定的计算机程序搜集互联网上的信息,在对信息进行组织和处理后,并将处理后的信息显示给用户,是为用户提供检索服务的系统。

发 展(1): 世界上第一个Spider程序,是MIT Matthew Gray的World wide Web Wanderer,用于追踪互联网发展规模。

刚开始它只用来统计互联网上的服务器数量,后来则发展为也能够捕获网址(URL) 。

搜索引擎一般由以下三部分组成: 爬行器(机器人、蜘蛛) 索引生成器 查询检索器发 展(2): Excite 的历史可以上溯到1993年2月,6个Stanford University(斯坦福大学)大学生的想法是分析字词关系,以对互联网上的大量信息作更有效的检索。

到1993年中,这已是一个完全投资项目,他们还发布了一个供webmasters在自己网站上使用的搜索软件版本,后来被叫做Excite for Web Servers。

注:Excite后来曾以概念搜索闻名,2002年5月,被Infospace收购的Excite停止自己的搜索引擎,改用元搜索引擎 Dogpile发 展(3): 1994年4月,斯坦福大学的两名博士生,美籍华人杨致远和David Filo共同创办了Yahoo!。

随着访问量和收录链接数的增长,Yahoo目录开始支持简单的数据库搜索。

因为Yahoo!的数据是手工输入的,所以不能真正被归为搜索引擎,事实上只是一个可搜索的目录。

Yahoo!中收录的网站,因为都附有简介信息,所以搜索效率明显提高。

注:Yahoo以后陆续有 Altavista、Inktomi、Google提供搜索引擎服务 Yahoo!--几乎成为20世纪90年代的因特网的代名词。

发 展(4): 1995年,一种新的搜索引擎形式出现了——元搜索引擎(Meta Search Engine)。

用户只需提交一次搜索请求,由元搜索引擎负责转换处理后提交给多个预先选定的独立搜索引擎,并将从各独立搜索引擎返回的所有查询结果,集中起来处理后再返回给用户。

第一个元搜索引擎,是Washington大学硕士生 Eric Selberg 和 Oren Etzioni 的 Metacrawler。

元搜索引擎概念上非常好听,但搜索效果始终不理想,所以没有哪个元搜索引擎有过强势地位。

发 展(5): 智能检索的产生:它利用分词词典、同义词典,同音词典改善检索效果,进一步还可在知识层面或者说概念层面上辅助查询,通过主题词典、上下位词典、相关同级词典检索处理形成一个知识体系或概念网络,给予用户智能知识提示,最终帮助用户获得最佳的检索效果。

例: (1)查询“计算机”,与“电脑”相关的信息也能检索出来; (2)可以进一步缩小查询范围至“微机”、“服务器”或扩大查询至“信息技术”或查询相关的“电子技术”、“软件”、“计算机应用”等范畴; (3)还包括歧义信息和检索处理,如“苹果”,究竟是指水果还是电脑品牌,“华人”与“中华人民共和国”的区分,将通过歧义知识描述库、全文索引、用户检索上下文分析以及用户相关性反馈等技术结合处理,高效、准确地反馈给用户最需要的信息。

发 展(6): 个性化趋势是搜索引擎的一个未来发展的重要特征和必然趋势之一。

一种方式通过搜索引擎的社区化产品(即对注册用户提供服务)的方式来组织个人信息,然后在搜索引擎基础信息库的检索中引入个人因素进行分析,获得针对个人不同的搜索结果。

自2004年10月yahoo推出myweb测试版,到11月a9推出个性化功能,到2005年Googlesearchhistory基本上都沿着一条路子走,分析特定用户的搜索需求限定的范围,然后按照用户需求范围扩展到互联网上其他的同类网站给出最相关的结果。

另外一种是针对大众化的,Google个性化搜索引擎,或者yahooMindSet,或者我们都知道的前台聚类的vivisimo。

但是无论其中的哪一种实现方式,即Google的主动选择搜索范围,还是yahoo,vivisimo的在结果中重新组织自己需要的信息,都是一种实验或者创想,短期内无法成为主流的搜索引擎应用产品。

发 展(7): 网格技术(great global grid):由于没有统一的信息组织标准对网络信息资源进行加工处理,难以对无序的网络信息资源进行检索、交接和共享乃至深层次的开发利用,形成信息孤岛。

网格技术就是要消除信息孤岛实现互联网上所有资源的全面连通。

美国全球信息网格(Global Information Grid) Robot(机器人)一词对编程者有特殊的意义。

Computer Robot是指某个能以人类无法达到的速度不断重复执行某项任务的自动程序。

由于专门用于检索信息的Robot程序像蜘蛛(spider)一样在网络间爬来爬去,因此,搜索引擎的Robot程序被称为spider程序。

1993年Matthew Gray开发了 World Wide Web Wanderer,这是第一个利用HTML网页之间的链接关系来检测万维网规模的“机器人(Robot)”程序。

开始,它仅仅用来统计互联网上的服务器数量,后来也能够捕获网址(URL)。

1994年4月,斯坦福大学(Stanford University)的两名博士生,美籍华人Jerry Yang(杨致远)和David Filo共同创办了Yahoo。

随着访问量和收录链接数的增长,Yahoo目录开始支持简单的数据库搜索。

因为Yahoo!的数据是手工输入的,所以不能真正被归为搜索引擎,事实上只是一个可搜索的目录。

雅虎于2002年12月23日收购inkto...

什么是独立搜索引擎?

1990年蒙特利尔大学学生Alan Emtage发明Archie1993年10月,Martin Koste创建了ALIWEB,它是Archie的HTTP版本。

ALIWEB不使用“机器人”程序,而是靠网站主动提交信息来建立自己的链接索引,类似于现在我们熟知的Yahoo。

1993年底,一些基于蜘蛛爬行原理的搜索引擎开始纷纷涌现,如Overture,只有先后没有相关性。

1994年7月,Yahoo、Lycos等分类目录型搜索引擎的相继诞生。

从此搜索引擎进入了高速发展时期。

1995-1996年,基于网页HTML代码中META标签检索的搜索引擎技术诞生。

这就是搜索引擎优化方法的萌芽。

1997年,搜索引擎优化与排名自动检测软件问世,网络营销人员可以据此制定针对性的搜索引擎营销策略1998年,“搜索引擎算法”开始关注网站外部链接,诞生了“网站链接广度”(link popularity)概念2000年,出现按点击付费(Pay-per-click)的搜索引擎关键词广告模式(overture),搜索引擎广告诞生2001年,搜狐等部分中文分类目录开始收费登录,网站登录每年要交纳数百元到数千元不等的费用,付费搜索引擎营销开始走向主流2003年,出现基于内容定位的搜索引擎广告(google AdSense)

什么是搜索引擎及搜索引擎的工作原理

搜索引擎(Search Engine)是指根据一定的策略、运用特定的计算机程序从互联网上搜集信息,在对信息进行组织和处理后,为用户提供检索服务,将用户检索相关的信息展示给用户的系统。

搜索引擎包括全文索引、目录索引、元搜索引擎、垂直搜索引擎、集合式搜索引擎、门户搜索引擎与免费链接列表等。

工作原理第一步:爬行搜索引擎是通过一种特定规律的软件跟踪网页的链接,从一个链接爬到另外一个链接,像蜘蛛在蜘蛛网上爬行一样,所以被称为“蜘蛛”也被称为“机器人”。

搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容。

第二步:抓取存储搜索引擎是通过蜘蛛跟踪链接爬行到网页,并将爬行的数据存入原始页面数据库。

其中的页面数据与用户浏览器得到的HTML是完全一样的。

搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。

第三步:预处理搜索引擎将蜘蛛抓取回来的页面,进行各种步骤的预处理。

⒈提取文字⒉中文分词⒊去停止词⒋消除噪音(搜索引擎需要识别并消除这些噪声,比如版权声明文字、导航条、广告等……)5.正向索引6.倒排索引7.链接关系计算8.特殊文件处理除了HTML 文件外,搜索引擎通常还能抓取和索引以文字为基础的多种文件类型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。

我们在搜索结果中也经常会看到这些文件类型。

但搜索引擎还不能处理图片、视频、Flash这类非文字内容,也不能执行脚本和程序。

第四步:排名用户在搜索框输入关键词后,排名程序调用索引库数据,计算排名显示给用户,排名过程与用户直接互动的。

但是,由于搜索引擎的数据量庞大,虽然能达到每日都有小的更新,但是一般情况搜索引擎的排名规则都是根据日、周、月阶段性不同幅度的更新。

选择与网站内容相关搜索次数多,竞争小主关键词,不可太宽泛主关键词,不太特殊商业价值提取文字中文分词去停止词消除噪声去重正向索引倒排索引链接关系计算特殊文件处理

转载请注明出处51数据库 » 搜索引擎是软件吗

软件
前端设计
程序设计
Java相关