本文共 602 字,大约阅读时间需要 2 分钟。
做爬虫的时候,只是简单的存入elasticsearch中,在测试服务器上结果发现老是插入不进去:
提示的错误:
logstash.outputs.elasticsearch] retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)]
这是由于ES新节点的数据目录data存储空间不足,导致从master主节点接收同步数据的时候失败,此时ES集群为了保护数据,会自动把索引分片index置为只读read-only
解决方法:
PUT _settings { "index": { "blocks": { "read_only_allow_delete": "false" } } }
这里我使用的是第二种方法。
如果es出现其他问题,记得搜关键词,不要太多,就能搜索到答案的。
欢迎光临我的小网站:www.00reso.com
陆续优化中,后续会开发更多更好玩的有趣的小工具。转载地址:http://vkxkf.baihongyu.com/