内容简介:solr 的安装工作到此就结束了。每个核心都是solr的一个实例,一个solr服务可以创建多个核心,每个核心都可以进行自己独立配置。这种方式 需要 在 E:\solr-8.1.1\server\solr 目录下创建 new_core文件夹
- 1.官网下载地址 直接下载 zip格式即可
- 2.解压下载的压缩包即可完成Solr安装。
- 3.打开DOS,路径切换至solr_home\bin,执行命令:solr start –p 8983,将solr在8983端口运行,看到以下图片就证明solr启动成功了。(Solr默认端口为8983)
solr常用的命令
solr start -p p_num 启动solr solr restart -p p_num 重启solr solr stop -p p_num 关闭solr solr create -c c_name 创建一个核心 复制代码
- 4.在浏览器访问:localhost:8983 ,出现如些页面
solr 的安装工作到此就结束了。
二、创建核心
2.1 创建核心前准备工作
每个核心都是solr的一个实例,一个solr服务可以创建多个核心,每个核心都可以进行自己独立配置。
- 1.切换至solr_home\server\solr目录,例如:E:\solr-8.1.1\server\solr,在该目录下创建一个文件夹,文件夹名称与核心名称相同。
- 2.将E:\solr-8.1.1\server\solr\configsets_default路径下的conf文件夹复制到new_core目录(E:\solr-8.1.1\server\solr\new_core)下。
2.2 创建核心
方式一:打开solr界面,进行如图顺序操作。
这种方式 需要 在 E:\solr-8.1.1\server\solr 目录下创建 new_core文件夹
方式二:bin目录下输入命令:solr create -c new_core (推荐)
三、schema
每个核心core中都有这么一个 schema配置文件。 schema文件可以对索引库的数据类型进行定义,对字段是否进行索引、存储等进行配置,需要针对狠心单独进行配置。 schema的数据类型进本够用,如果不能满足需求,比如说对中文分词、拼音分词等,就可以自定义分词器。 Solr8.1.1 的schema的配置文件名 为managed-schema,home\server\solr\new_core\conf\managed-schema(E:\solr-8.1.1\server\solr\core_issuer\conf)。
3.1 schema主要成员
- (1) fieldType:为field定义类型,最主要作用是定义分词器,分词器决定着如何从文档中检索关键字。
- (2) analyzer:fieldType的子元素,是分词器,由tokenizer和filter组成。例如
<fieldType name="text_tr" class="solr.TextField" positionIncrementGap="100"> <analyzer> <tokenizer class="solr.StandardTokenizerFactory"/> <filter class="solr.TurkishLowerCaseFilterFactory"/> <filter class="solr.StopFilterFactory" words="lang/stopwords_tr.txt" ignoreCase="false"/> <filter class="solr.SnowballPorterFilterFactory" language="Turkish"/> </analyzer> </fieldType> 复制代码
- (3) field:字段,用来创建索引,如果这个字段需要生成索引,则需要设置的indexed为true,需要存储设置stored属性为true。例如:
<field name="age" type="pint" indexed="true" stored="true"/> 复制代码
3.2 添加索引字段
- 方式一:直接修改managed-schema配置文件(不推荐,修改后需要重启服务),例如:
<field name="age" type="pint" indexed="true" stored="true"/> 复制代码
- 方式二:通过solr页面进行添加。(推荐,不需要重启服务)

3.3 配置中文分词工具
- 1.下载中文分词器IKAnalyzer,下载地址,密码:igt9。
- 2.解压压缩包包,目录如下:
- 3.将两个jar包复制到该路径下:E:\solr-8.1.1\server\solr-webapp\webapp\WEB-INF\lib。
- 4.另外将三个配置文件复制到该路径下:E:\solr-8.1.1\server\solr-webapp\webapp\WEB-INF\classes。如果没有classes文件夹就新建一个。
- 5.在schema中添加分词器。
<fieldType name="text_ik" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/> <filter class="solr.LowerCaseFilterFactory"/> </analyzer> <analyzer type="query"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/> <filter class="solr.LowerCaseFilterFactory"/> </analyzer> </fieldType> 复制代码
-
6.在ext.dic文件中添加自定义的中文词组
-
需要重启solr
效果如下:
四、导入索引数据(mysql数据为例)
- 1.创建 mysql 数据库
- 2.在该路径下solr_home\server\solr\new_core\conf(E:\solr-8.1.1\server\solr\core_issuer\conf)下新建my-data-config.xml文件
<?xml version="1.0" encoding="UTF-8" ?> <dataConfig> <dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://localhost:3306/solr_test" user="root" password=""/> <document> <entity name="user" query="select * from user"> <field column="id" name="id"/> <field column="age" name="age"/> <field column="name" name="name"/> <field column="hobby" name="hobby"/> </entity> </document> </dataConfig> 复制代码
- 3.用solr添加数据库字段对应的索引字段,添加后打开managed-schema文件会看到:
<field name="name" type="string" indexed="true" stored="true"/> <field name="age" type="pint" indexed="true" stored="true"/> <field name="hobby" type="string" indexed="true" stored="true"/> 复制代码
请勿添加id字段,该字段已存在,添加会报错
- 4.打开该路径下文件:solr_home\server\solr\new_core\conf\solrconfig.xml(E:\solr-8.1.1\server\solr\core_issuer\conf\solrconfig.xml),随便找一个与requestHandler同级节点上添加以下配置。如图:
<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler"> <lst name="defaults"> <str name="config">my-data-config.xml</str> </lst> </requestHandler> 复制代码
- 5.将solr_home\dist(E:\solr-8.1.1\dist)目录下的solr-dataimporthandler-8.1.1.jar和MySQL驱动(随便找个MySQL驱动)复制到solr_home\server\solr-webapp\webapp\WEB-INF\lib(E:\solr-8.1.1\server\solr-webapp\webapp\WEB-INF\lib)目录下。
- 6.重启solr服务。
- 7.打开solr页面,进行下面操作。
- 8.检测数据是否导入成功
如果对索引字段进行中文分词
添加对索引字段时,fileType :选择text_ik
效果如图: 查询 鲁西化工 的结果
五、 Java 客户端solrJ的使用
5.1 导入pom
<!--solr --> <dependency> <groupId>org.apache.solr</groupId> <artifactId>solr-solrj</artifactId> <version>8.1.1</version> </dependency> 复制代码
5.2 编写model
public class User { @Field(value = "id") private String id; @Field(value = "name") private String name; @Field(value = "age") private Integer age; @Field(value = "hobby") private String hobby; public String getId() { return id; } public void setId(String id) { this.id = id; } public String getName() { return name; } public void setName(String name) { this.name = name; } public Integer getAge() { return age; } public void setAge(Integer age) { this.age = age; } public String getHobby() { return hobby; } public void setHobby(String hobby) { this.hobby = hobby; } @Override public String toString() { return "Person{" + "id=" + id + ", name='" + name + '\'' + ", age=" + age + ", hobby=" + hobby + '}'; } } 复制代码
5.3 写测试代码
public class Main { private static final String SOLR_URL = "http://localhost:8888/solr"; private static final String CORE_NAME = "new_core"; public static void main(String[] args) throws IOException, SolrServerException { HttpSolrClient client = new HttpSolrClient.Builder(SOLR_URL).withConnectionTimeout(10000).withSocketTimeout(60000).build(); SolrQuery query = new SolrQuery(); //设置要查询的字段 query.setFields("id","name", "age","hobby"); //查询全部 QueryResponse response = client.query(CORE_NAME,query); //查询结果 SolrDocumentList results = response.getResults(); System.out.println("结果总数:" + results.getNumFound()); //遍历列表 System.out.println("文档结果:"); for (SolrDocument doc : results) { System.out.printf("[id:%s,name:%s,age:%s,hobby:%s]\n", doc.get("id"), doc.get("name"), doc.get("age"), doc.get("hobby")); } //得到实体对象 List<User> userList = response.getBeans(User.class); System.out.println("转为实体对象:\n"+Arrays.toString(userList.toArray())); } } 复制代码
**按条件单个查询: **
//查询name为“陈龙”的user query.set("q","name:陈龙" ); 复制代码
过滤查询
//查询name为“陈龙”的user query.set("q","name:陈龙" ); 复制代码
六、定时实时重建索引和增量更新
准备工作:
- 1.下载jar包:solr-dataimportscheduler-1.1.jar (网上也有1.0版本,但是具体对应solr版本请自行查找)下载地址
** 注意注意注意(重要的事情说三遍):当solr7+以上版本时,该jar包会有问题,配置后服务器启动会报错,页面404,具体详情后面会有解决方案。**
个人网盘分享:链接: pan.baidu.com/s/1HT9WzXQx… 提取码:ehju
这个对7+版本可以正常使用
- 2.新建文件:dataimport.properties,文件复制下面的就好,具体配置含义已给出注释:
################################################# # # # dataimport scheduler properties # # # ################################################# # to sync or not to sync # 1 - active; anything else - inactive # 这里的配置不用修改 syncEnabled=1 # which cores to schedule # in a multi-core environment you can decide which cores you want syncronized # leave empty or comment it out if using single-core deployment # 修改成你所使用的core,我这里是我自定义的core:simple syncCores=core_issuer # solr server name or IP address # [defaults to localhost if empty] 这个一般都是localhost不会变 server=localhost # solr server port # [defaults to 80 if empty] # 安装solr的tomcat端口,如果你使用的是默认的端口,就不用改了,否则改成自己的端口就好了 port=8983 # application name/context # [defaults to current ServletContextListener's context (app) name] # 这里默认不改 webapp=solr # URL params [mandatory] # remainder of URL # 这里改成下面的形式,solr同步数据时请求的链接 (我这里使用的 full-import ) params=/dataimport?command=full-import&clean=true&commit=true # schedule interval # number of minutes between two runs # [defaults to 30 if empty] #这里是设置定时任务的,单位是分钟,也就是多长时间你检测一次数据同步,根据项目需求修改 # 开始测试的时候为了方便看到效果,时间可以设置短一点 interval=1 # 重做索引的时间间隔,单位分钟,默认7200,即5天; # 为空,为0,或者注释掉:表示永不重做索引 reBuildIndexInterval=7200 # 重做索引的参数 reBuildIndexParams=/select?qt=/dataimport&command=full-import&clean=true&commit=true # 重做索引时间间隔的计时开始时间,第一次真正执行的时间=reBuildIndexBeginTime+reBuildIndexInterval*60*1000; # 两种格式:2012-04-11 03:10:00 或者 03:10:00,后一种会自动补全日期部分为服务启动时的日期 reBuildIndexBeginTime=03:10:00 复制代码
准备好这一个jar包和dataimport.properties文件,开始下面的步骤……
- 步骤一:将solr-dataimportscheduler.jar包复制到E:\solr-8.1.1\server\solr-webapp\webapp\WEB-INF\lib中。
- 步骤二:在E:\solr-8.1.1\server\solr-webapp\webapp\WEB-INF目录下的web.xml文件中添加监听配置(标签前面):
<listener> <listener-class>org.apache.solr.handler.dataimport.scheduler.ApplicationListener</listener-class> </listener> 复制代码
注意(又一个注意的地方):org.apache.solr.handler.dataimport.scheduler.ApplicationListener 后面不能有空格,否则可能会报错,且很难发现问题原因。
- 步骤三:在\solrhome目录下新建一个conf文件夹(与simple文件夹同目录),将dataimport.properties文件放在conf文件夹中。
- 步骤四:重启tomcat,访问Solr。
七、删除索引库(删除所有数据)的两种方法
- 1.删除索引库所有数据的方法一:直接用solr可视化界面删除
- 2.删除索引库所有数据的方法二:利用solrClient的方法删除所有数据
@Test public void deleteAll(){ try { searchCrawlerProductService.deleteAll(); } catch (Exception e) { e.printStackTrace(); } } 复制代码
public RestResult deleteAll(){ try { log.debug("删除所有索引"); solrClient.deleteByQuery("*:*"); //把删除的条件设置为"*:*"就可以了 solrClient.commit(); log.debug("全部删除成功"); } catch (Exception e) { log.debug("删除全部索引失败"); e.printStackTrace(); } return RestResult.success("删除索引库成功"); } 复制代码
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- Sphinx&coreseek实现中文分词索引
- Elasticsearch 6.x 倒排索引与分词
- 基于海量公司分词ES中文分词插件
- 北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
- 复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学
- 分词,难在哪里?
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Effective JavaScript
David Herman / Addison-Wesley Professional / 2012-12-6 / USD 39.99
"It's uncommon to have a programming language wonk who can speak in such comfortable and friendly language as David does. His walk through the syntax and semantics of JavaScript is both charming and h......一起来看看 《Effective JavaScript》 这本书的介绍吧!