欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Solr学习记录之Getstarted

程序员文章站 2022-07-09 15:21:16
...

Solr学习记录:Getting started

本教程使用环境:java8或者更高版本、Solr8.1、centos7

1.Solr Tutorial

1.1简介

本篇将用三个部分具体练习以引领对Solr的快速体验。每个练习将基于前一个练习。

  • 第一个练习:启动solr,创建一个Collection,索引一些基础文档,执行一些搜索。
  • 第二个练习:使用不同数据集,并尝试用其访问页面。
  • 第三个练习:开始使用自己的数据,并为实现制定计划。

1.2 解压Solr

方便统一操作,我们将solr安装在/opt 路径下

~$ mv solr-7.7.0.zip /opt/
~$ unzip -q solr-7.7.0.zip
#或者是:tar -zxvf solr-7.7.0.zip
~$ cd solr-7.7.0/

1.3 练习一:索引Techproducts样例数据

目标:

  • 以双节点集群启动Solr(同一台机器上),并且在启动期间创建一个collection。
  • 为这些样例数据建立索引,并做一些基础的搜索工作。
以SolrCloud模式启动Solr(基于zookeeper的分布式搜索)
  1. 启动Solrbin/solr start -e cloud

    注:这将开启一个交互式会话,在机器上开启两个Solr服务。

    solr-7.7.0:$ ./bin/solr start -e cloud
    Welcome to the SolrCloud example!
    This interactive session will help you launch a SolrCloud cluster on your local workstation.
    To begin,how many Solr nodes would you like to run in your local cluster? (specify 1-4 nodes)[2]:
    

    你想在本地集群创建多少个节点,默认2个。本例中只需两个节点,直接Enter默认。为建立外部zookeeper集群,因此solr将连接内置的zookeeper。

  2. 分别为两个节点选择端口号

    #第一个节点
    Ok, let's start up 2 Solr nodes for your example SolrCloud cluster.
    Please enter the port for node1 [8983]:
    
    #第二个节点
    Please enter the port for node2 [7574]:
    

    除非你了解这两个节点已经被占用,我们建议直接Enter选择默认节点即可。

  3. 启动完成后将创建一个collection,并要求为其取名

    Now let's create a new collection for indexing documents in your 2-node cluster.
    Please provide a name for your new collection: [gettingstarted]
    

    在后面我们将索引一些solr下称作techproducts数据的样例数据,所以为了区别于其他的collection,我们将其命名为techproducts。在提示处键入techproducts并回车确认。

  4. 在两个节点间拆分索引分片

    How many shards would you like to split techproducts into? [2]
    

    选择默认的2,意味着在两个节点间相对平均地进行索引分片。对于我们的双节点集群来说,默认选项是个好的选择。

  5. 为分片创建副本

    How many replicas per shard would you like to create? [2]
    

    回车默认即可。分片的副本一般会在多个节点中保存,当然此例中仅有两个节点。

  6. 为我们创建的collection选择一个配置文件

    Please choose a configuration for the techproducts collection, available options are:
    _default or sample_techproducts_configs [_default]
    

    一个collection必须要有一个configSet(sets of configuration files),solr提供了两个可直接使用的configSet

    • _default:这是一个最基本的选项
    • sample_techproducts_configs:支持我们想要使用的样例数据。

    由于本实验将使用solr提供的样例数据,所以回车默认即可。

    一个configSet至少包含两个主配置文件schema file(schema.xml或者managed-schema)以及solrConfig.xml

  7. 通过solr提供的bin/post工具采集样例数据

    bin/post -c techproducts example/exampledocs/*
    

    若无报错,可通过 http://ip:8983/solr/#/techproducts/query来访问solr的图形管理界面,如下:

    Solr学习记录之Getstarted

​ 下面简单介绍一下这个图形管理界面的一些信息:
标号为q的文本框:qBox。它支持单术语搜索和多术语搜索(即短语搜索),多术语搜索时,只 要其中一个在索引中匹配到了solr就返回其结果。qBox还支持组合搜索,术语前加“+”号,表示必须匹配,相反,加“-”号表示,禁 止匹配该术语。rowsBox限制最大返回条数。
8. 额外补充命令

#删除collection
bin/solr delete -c techproducts
#创建自己的collection
bin/solr create -c <yourCollection> -s 2 -rf 2
#关闭Solr所有的节点
bin/solr stop -all

9. 在启动过程中可能遇到的问题,以及注意事项

  • 以非root用户启动solr,为此创建普通用户solruseradd solr && echo "1234"|passwd --stdin solr

  • Solr用户对solr的安装目录及其子目录(文件)须得有访问权限,在此我们直接将其所属者改为solr

    chown solr:solr /opt/solr-7.7.2

  • 安装好lsof这个工具(用于展示已经打开的文件),solr需要使用这个东西。

  • 将solr可执行文件路径导入环境变量,方便操作(直接输入命令,无需加绝对路径)。修改solr家目录下的.bash_profile或者/etc/profile都可以,修改内容如下:

    export SOLR_HOME=/opt/solr-7.7.2
    export PATH=$PATH:$SOLR_HOME/bin
    
  • 若是在虚拟机或者远程服务器中运行,必须要开启防火墙中相应的端口号。

1.4 练习二:修改Schema和Films Data

重启Solr节点
./bin/solr start -c -p 8983 -s example/cloud/node1/solr
./bin/solr start -c -p 7574 -s example/cloud/node2/solr -z localhost:9983
什么是schema

schema是一个独立的xml文件,它存储着:

  • solr能够理解的字段以及字段类型的详细信息
  • 一个字段在索引前所作的修改。
  • 支持包含通配符的动态搜索
创建新的collection

因为本练习使用的全新的数据集,所以新建collection。使用默认的configSet,它包含一个最小化的schema,由solr自行根据数据推断出要添加哪些字段信息。

#分别指定collection的名字,shard和replicas的数量
bin/solr create -c films -s 2 -rf 2

**注:**当我们不指定configSet时,他默认就使用_default这个configSet

  1. Preparing Schemaless for the Films Data

    使用_defaultconfigSet,schama有两点注意:

    • 我们将使用managed schema,他被配置为只能使用Solr提供的Schema API来做修改。Schema API允许我们修改字段、字段类型以及其他schema规则。
    • 使用在solrconfig.xml中配置的"field guessing"。这使得我们在索引文档前无需手动添加字段,直接启动solr,这就是他叫做schemaless的原因。

    但是“field guessing”这种简单粗暴的方式也是有缺陷的。一旦它“guess wrong”,那么你除非重新索引,否则无法修改字段信息。而如果这个索引量非常庞大的话就很可怕了。解决方式:schema api与schemaless混合使用,利用schema api定义一个或几个关键字段,剩余的非关键字段交给solr去guess。

  2. Create the “names” Field

    • curl命令:定义字段“name”,类型为“text_general”
    curl -X POST -H 'Content-type:application/json' --data-binary '{"add-field": {"name":"name",
    "type":"text_general", "multiValued":false, "stored":true}}'
    http://localhost:8983/solr/films/schema
    
    • Admin UI创建
  3. Create a “catchall” Copy Field

    从所有字段中采集数据,并建立索引到一个叫做_text_的字段中。

    • curl命令
    curl -X POST -H 'Content-type:application/json' --data-binary '{"add-copy-field" :
    {"source":"*","dest":"_text_"}}' http://localhost:8983/solr/films/schema
    
    • Admin UI创建
索引样例Film Data
#To Index JSON Format
bin/post -c films example/films/films.json
#To Index XML Format
bin/post -c films example/films/films.xml
#To Index CSV Format
bin/post -c films example/films/films.csv -params
"f.genre.split=true&f.directed_by.split=true&f.genre.separator=|&f.directed_by.separator=|"

参数解释

  • -c 指定collection的名字。
  • /films/films.json (or films.xml or films.csv):指定要采集的数据文件
Faceting

将查询的结果分类,并且统计每个分类的数量

Field Facets

#按"genre"字段分组,并统计数量
curl "http://localhost:8983/solr/films/select?q=*:*&rows=0&facet=true&facet.field=genre_str"
#使用facet.mincount限制返回返回分类数量的最小值
curl "http://localhost:8983/solr/films/select=&q=*:*&facet.field=genre_str&facet.mincount=200&fa
cet=on&rows=0"
Range Facets

对返回的结果分段,而不是一堆零碎的结果

curl 'http://localhost:8983/solr/films/select?q=*:*&rows=0'\
'&facet=true'\
'&facet.range=initial_release_date'\
'&facet.range.start=NOW-20YEAR'\
'&facet.range.end=NOW'\
'&facet.range.gap=%2B1YEAR'
  1. facet.range.start:设置最低下限
  2. facet.range.end:设置最高上限
  3. facet.range.gap:设置步进
Pivot Facets

允许使用两个至多个字段嵌套为各种可能的组合

#以逗号分隔多字段
#返回某一类型的film由同意导演执导的影片数量
curl "http://localhost:8983/solr/films/selectq=*:*&rows=0&facet=on&facet.pivot=genre_str,directe
d_by_str
收尾:删除本实验的collection
bin/solr delete -c films

1.5 练习三: Index Your Own Data

在最后一个练习中,我们将探索索引本地数据,而不再是solr提供的样例数据

在实验开始之前,先创建将要使用的collection

bin/solr create -c myfiles -s 2 -rf 2
Indexing Ideas(solr索引数据的各种方法)
  1. Local Files with bin/post

    数据格式: JSON,XML,CSV,HTML,PDF,MS word,纯文本等。

    数据准备: 假设数据放在家目录下,~/myDocument

    数据采集: bin/post -c myfiles ~/myDocument

  2. DataImportHandler

    用于连接数据库、邮件服务,或者其他结构化的数据源

  3. SolrJ

    一个用于和Solr交互的,基于java的客户端。通过编码创建文档发送到solr。

  4. Documents Screen

    通过Admin UI提供的Document Tab添加索引文档。

Updating Data

无论索引多少次都不会出现相同的结果,因为在schema中指定了唯一字段id。当向Solr添加新的文档,这个唯一值存在重复时,那么新的文档将会自动替换旧的文档。

Deleting Data

清除collection中的数据并不会改变事先对字段的定义。

#删除指定文档
bin/post -c myfiles -d "<delete><id>SP2514N</id></delete>"
#删除所有文档
bin/post -c myfiles -d "<delete><query>*:*</query></delete>"
收尾

停止solr,并将环境重置到初始状态

bin/solr stop -all ; rm -Rf example/cloud/

2. A Quick Overview

与其他应用整合,实现搜索在线存储的数据

  1. 定义scheme。告诉Solr需要索引的内容,为应用定制行为。
  2. 提供用户搜索的文档
  3. 在应用中显示搜索功能

任何能够使用HTTP协议的平台都可以使用solr

Solr主要目录结构以及常用文件介绍

bin/

包含几个重要的脚本

  1. solr : 启动、停止Solr,创建collection或cores,配置authentication
  2. post: 采集数据,向Solr提交内容
  3. solr.in.sh: 在这一处地方就可以配置所有属性
  4. install_solr_services.sh: 将solr作为一个服务安装
contrib/

包含solr专用功能的附加插件

dist/

包含solr主要的solr.jar文件

docs/

包含Solr的javadocs文档

example/

通过几个例子展示solr的不同功能

server/

包含solr的几个核心应用:

  1. Admin UI(server/solr-webapp)
  2. Jetty libraries(server/lib)
  3. log files(server/log)和 log configuration(server/resource)
  4. Sample configSets(server/solr/configSets)

tall_solr_services.sh: 将solr作为一个服务安装

contrib/

包含solr专用功能的附加插件

dist/

包含solr主要的solr.jar文件

docs/

包含Solr的javadocs文档

example/

通过几个例子展示solr的不同功能

server/

包含solr的几个核心应用:

  1. Admin UI(server/solr-webapp)
  2. Jetty libraries(server/lib)
  3. log files(server/log)和 log configuration(server/resource)
  4. Sample configSets(server/solr/configSets)
相关标签: solr