【redis】主从配置

Continue Read..

redis主从配置

主 IP  192.168.31.207  win10系统  redis版本 2.4 redis-2.4.5-win32-win64.zip

从 IP  192.168.31.222 linux centos(虚拟机)  redis版本 3.0 redis-3.0.zip

 

redis.conf配置  

daemonize no 改成 yes

#bind 127.0.0.1  这个IP访问绑定看情况   

#slaveof 192.168.31.222 6379  主不写这个  从写这个 IP是主的IP和端口

 slave-read-only yes  主写yes   从写no 


参考网址 

http://blog.chinaunix.net/uid-20498361-id-3202002.html

http://blog.csdn.net/yfkiss/article/details/7237722

http://www.cnblogs.com/Bozh/p/3954379.html

http://blog.csdn.net/zfl092005/article/details/17523945

http://blog.csdn.net/miyatang/article/details/18863209

http://www.linuxidc.com/Linux/2015-01/111364.htm

http://www.cnblogs.com/shanyou/archive/2012/01/28/2330451.html

 

 

声明:此文系舞林cuznwww.wulinlw.org)原创稿件,转载请保留版权

【Redis】redis密码管理

Continue Read..

一. 如何初始化redis的密码?

总共2个步骤:

a.在配置文件中有个参数: requirepass  这个就是配置redis访问密码的参数。

比如 requirepass test123

b.配置文件中参数生效需要重启重启redis 。

 

.不重启redis如何配置密码?

a. 在配置文件中配置requirepass的密码(当redis重启时密码依然有效)。

# requirepass foobared
 如  修改成 :

requirepass  test123

 

b. 进入redis重定义参数

查看当前的密码:

[root@slaver251 redis-2.4.16]# ./src/redis-cli -p 6379
redis 127.0.0.1:6379> 
redis 127.0.0.1:6379> config get requirepass
1) "requirepass"
2) (nil)

显示密码是空的,

然后设置密码:

redis 127.0.0.1:6379> config set requirepass test123
OK

再次查询密码:

redis 127.0.0.1:6379> config get requirepass
(error) ERR operation not permitted

此时报错了!

现在只需要密码认证就可以了。

redis 127.0.0.1:6379> auth test123
OK

再次查询密码:

redis 127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "test123"

密码已经得到修改。

当到了可以重启redis的时候 由于配置参数已经修改 所以密码会自动生效。

要是配置参数没添加密码 那么redis重启 密码将相当于没有设置。

 

三.如何登录有密码的redis?

a.在登录的时候 密码就输入

[root@slaver251 redis-2.4.16]# ./src/redis-cli -p 6379 -a test123
redis 127.0.0.1:6379> 
redis 127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "test123"

 

b.先登录再验证:

[root@slaver251 redis-2.4.16]#  ./src/redis-cli -p 6379
redis 127.0.0.1:6379> 
redis 127.0.0.1:6379> auth test123
OK
redis 127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "test123"
redis 127.0.0.1:6379>

声明:此文系舞林cuznwww.wulinlw.org)原创稿件,转载请保留版权

【redis】redis中文文档

Continue Read..

phpredis是php的一个扩展,效率是相当高有链表排序功能,对创建内存级的模块业务关系

很有用;以下是redis官方提供的命令使用技巧:

下载地址如下:

https://github.com/owlient/phpredis(支持redis 2.0.4)


Redis::__construct
构造函数
$redis = new Redis();

connect, open 链接redis服务
参数
host
: string,服务地址
port
: int,端口号
timeout
: float,链接时长 (可选, 默认为 0 ,不限链接时间)
注: 在redis.conf中也有时间,默认为300

pconnect, popen 不会主动关闭的链接
参考上面

setOption 设置redis模式

getOption 查看redis设置的模式

ping 查看连接状态

get
 得到某个key的值(string值)
如果该key不存在,return false

set
 写入key 和 value(string值)
如果写入成功,return ture

setex 带生存时间的写入值
$redis->setex('key', 3600, 'value'); // sets key → value, with 1h TTL.

setnx
 判断是否重复的,写入值
$redis->setnx('key', 'value');
$redis->setnx('key', 'value');

delete  删除指定key的值
返回已经删除key的个数(长整数)
$redis->delete('key1', 'key2');
$redis->delete(array('key3', 'key4', 'key5'));

ttl
得到一个key的生存时间

persist
移除生存时间到期的key
如果key到期 true 如果不到期 false

mset (redis版本1.1以上才可以用)
同时给多个key赋值
$redis->mset(array('key0' => 'value0', 'key1' => 'value1'));



multi, exec, discard
进入或者退出事务模式
参数可选Redis::MULTIRedis::PIPELINE. 默认是 Redis::MULTI
Redis::MULTI:将多个操作当成一个事务执行
Redis::PIPELINE:让(多条)执行命令简单的,更加快速的发送给服务器,但是没有任何原子性的保证
discard:删除一个事务
返回值
multi(),返回一个redis对象,并进入multi-mode模式,一旦进入multi-mode模式,以后调用的所有方法都会返回相同的对象,只到exec()方法被调用。

watch, unwatch (代码测试后,不能达到所说的效果)
监测一个key的值是否被其它的程序更改。如果这个key在watch 和 exec (方法)间被修改,这个 MULTI/EXEC 事务的执行将失败(return false)
unwatch  取消被这个程序监测的所有key
参数,一对key的列表
$redis->watch('x');

$ret = $redis->multi() ->incr('x') ->exec();


subscribe
 *
方法回调。注意,该方法可能在未来里发生改变

publish *
发表内容到某一个通道。注意,该方法可能在未来里发生改变

exists
判断key是否存在。存在 true 不在 false

incr, incrBy
key中的值进行自增1,如果填写了第二个参数,者自增第二个参数所填的值
$redis->incr('key1');
$redis->incrBy('key1', 10);

decr, decrBy
做减法,使用方法同incr

getMultiple
传参
由key组成的数组
返回参数
如果key存在返回value,不存在返回false
$redis->set('key1', 'value1'); $redis->set('key2', 'value2'); $redis->set('key3', 'value3'); $redis->getMultiple(array('key1', 'key2', 'key3'));
$redis->lRem('key1', 'A', 2);
$redis->lRange('key1', 0, -1);

list
相关操作
lPush
$redis->lPush(key, value);
在名称为key的list左边(头)添加一个值为value的 元素

rPush
$redis->rPush(key, value);
在名称为key的list右边(尾)添加一个值为value的 元素

lPushx/rPushx
$redis->lPushx(key, value);
在名称为key的list左边(头)/右边(尾)添加一个值为value的元素,如果value已经存在,则不添加

lPop/rPop
$redis->lPop('key');
输出名称为key的list左(头)起/右(尾)起的第一个元素,删除该元素

blPop/brPop
$redis->blPop('key1', 'key2', 10);
lpop命令的block版本。即当timeout为0时,若遇到名称为key i的list不存在或该list为空,则命令结束。如果timeout>0,则遇到上述情况时,等待timeout秒,如果问题没有解决,则对keyi+1开始的list执行pop操作

lSize

$redis->lSize('key');
返回名称为key的list有多少个元素

lIndex, lGet
$redis->lGet('key', 0);
返回名称为key的list中index位置的元素

lSet
$redis->lSet('key', 0, 'X');
给名称为key的list中index位置的元素赋值为value

lRange, lGetRange
$redis->lRange('key1', 0, -1);
返回名称为key的list中start至end之间的元素(end为 -1 ,返回所有)

lTrim, listTrim
$redis->lTrim('key', start, end);
截取名称为key的list,保留start至end之间的元素

lRem, lRemove
$redis->lRem('key', 'A', 2);
删除count个名称为key的list中值为value的元素。count为0,删除所有值为value的元素,count>0从头至尾删除count个值为value的元素,count<0从尾到头删除|count|个值为value的元素

lInsert
在名称为为key的list中,找到值为pivot 的value,并根据参数Redis::BEFORE | Redis::AFTER,来确定,newvalue 是放在 pivot 的前面,或者后面。如果key不存在,不会插入,如果 pivot不存在,return -1
$redis->delete('key1'); $redis->lInsert('key1', Redis::AFTER, 'A', 'X'); $redis->lPush('key1', 'A'); $redis->lPush('key1', 'B'); $redis->lPush('key1', 'C'); $redis->lInsert('key1', Redis::BEFORE, 'C', 'X');
$redis->lRange('key1', 0, -1);
$redis->lInsert('key1', Redis::AFTER, 'C', 'Y');
$redis->lRange('key1', 0, -1);
$redis->lInsert('key1', Redis::AFTER, 'W', 'value');

rpoplpush
返回并删除名称为srckey的list的尾元素,并将该元素添加到名称为dstkey的list的头部
$redis->delete('x', 'y');
$redis->lPush('x', 'abc'); $redis->lPush('x', 'def'); $redis->lPush('y', '123'); $redis->lPush('y', '456'); // move the last of x to the front of y. var_dump($redis->rpoplpush('x', 'y'));
var_dump($redis->lRange('x', 0, -1));
var_dump($redis->lRange('y', 0, -1)); 

string(3) "abc" 
array(1) { [0]=> string(3) "def" } 
array(3) { [0]=> string(3) "abc" [1]=> string(3) "456" [2]=> string(3) "123" }

SET操作相关
sAdd
向名称为key的set中添加元素value,如果value存在,不写入,return false
$redis->sAdd(key , value);

sRem, sRemove
删除名称为key的set中的元素value
$redis->sAdd('key1' , 'set1');
$redis->sAdd('key1' , 'set2');
$redis->sAdd('key1' , 'set3');
$redis->sRem('key1', 'set2');

sMove
将value元素从名称为srckey的集合移到名称为dstkey的集合
$redis->sMove(seckey, dstkey, value);

sIsMember, sContains
名称为key的集合中查找是否有value元素,有ture 没有 false
$redis->sIsMember(key, value);

sCard, sSize
返回名称为key的set的元素个数

sPop
随机返回并删除名称为key的set中一个元素

sRandMember
随机返回名称为key的set中一个元素,不删除

sInter
求交集

sInterStore
求交集并将交集保存到output的集合
$redis->sInterStore('output', 'key1', 'key2', 'key3')

sUnion
求并集
$redis->sUnion('s0', 's1', 's2');
s0,s1,s2 同时求并集

sUnionStore
求并集并将并集保存到output的集合
$redis->sUnionStore('output', 'key1', 'key2', 'key3');

sDiff
求差集

sDiffStore
求差集并将差集保存到output的集合

sMembers, sGetMembers
返回名称为key的set的所有元素

sort
排序,分页等
参数
'by' => 'some_pattern_*',
'limit' => array(0, 1),
'get' => 'some_other_pattern_*' or an array of patterns,
'sort' => 'asc' or 'desc',
'alpha' => TRUE,
'store' => 'external-key'
例子
$redis->delete('s'); $redis->sadd('s', 5); $redis->sadd('s', 4); $redis->sadd('s', 2); $redis->sadd('s', 1); $redis->sadd('s', 3);
var_dump($redis->sort('s')); // 1,2,3,4,5
var_dump($redis->sort('s', array('sort' => 'desc'))); // 5,4,3,2,1
var_dump($redis->sort('s', array('sort' => 'desc', 'store' => 'out'))); // (int)5
 
string命令
getSet
返回原来key中的值,并将value写入key
$redis->set('x', '42');
$exValue = $redis->getSet('x', 'lol'); // return '42', replaces x by 'lol'
$newValue = $redis->get('x')' // return 'lol'

append
string,名称为key的string的值在后面加上value
$redis->set('key', 'value1');
$redis->append('key', 'value2');
$redis->get('key');

getRange (方法不存在)
返回名称为key的string中start至end之间的字符
$redis->set('key', 'string value');
$redis->getRange('key', 0, 5);
$redis->getRange('key', -5, -1);

setRange (方法不存在)
改变key的string中start至end之间的字符为value
$redis->set('key', 'Hello world');
$redis->setRange('key', 6, "redis");
$redis->get('key');

strlen
得到key的string的长度
$redis->strlen('key');

getBit/setBit
返回2进制信息

zsetsorted set)操作相关
zAdd
(key, score, member):向名称为key的zset中添加元素member,score用于排序。如果该元素已经存在,则根据score更新该元素的顺序。
$redis->zAdd('key', 1, 'val1');
$redis->zAdd('key', 0, 'val0');
$redis->zAdd('key', 5, 'val5');
$redis->zRange('key', 0, -1); // array(val0, val1, val5)

zRange
(key, start, end,withscores):返回名称为key的zset(元素已按score从小到大排序)中的index从start到end的所有元素
$redis->zAdd('key1', 0, 'val0');
$redis->zAdd('key1', 2, 'val2');
$redis->zAdd('key1', 10, 'val10');
$redis->zRange('key1', 0, -1); // with scores $redis->zRange('key1', 0, -1, true);

zDelete, zRem

zRem(key, member) :删除名称为key的zset中的元素member
$redis->zAdd('key', 0, 'val0');
$redis->zAdd('key', 2, 'val2');
$redis->zAdd('key', 10, 'val10');
$redis->zDelete('key', 'val2');
$redis->zRange('key', 0, -1); 

zRevRange
(key, start, end,withscores):返回名称为key的zset(元素已按score从大到小排序)中的index从start到end的所有元素.withscores: 是否输出socre的值,默认false,不输出
$redis->zAdd('key', 0, 'val0');
$redis->zAdd('key', 2, 'val2');
$redis->zAdd('key', 10, 'val10');
$redis->zRevRange('key', 0, -1); // with scores $redis->zRevRange('key', 0, -1, true);

zRangeByScore, zRevRangeByScore
$redis->zRangeByScore(key, star, end, array(withscores, limit ));
返回名称为key的zset中score >= star且score <= end的所有元素

zCount

$redis->zCount(key, star, end);
返回名称为key的zset中score >= star且score <= end的所有元素的个数

zRemRangeByScore, zDeleteRangeByScore

$redis->zRemRangeByScore('key', star, end);
删除名称为key的zset中score >= star且score <= end的所有元素,返回删除个数

zSize, zCard
返回名称为key的zset的所有元素的个数

zScore
$redis->zScore(key, val2);
返回名称为key的zset中元素val2的score

zRank, zRevRank
$redis->zRevRank(key, val);
返回名称为key的zset(元素已按score从小到大排序)中val元素的rank(即index,从0开始),若没有val元素,返回“null”。zRevRank 是从大到小排序

zIncrBy
$redis->zIncrBy('key', increment, 'member');
如果在名称为key的zset中已经存在元素member,则该元素的score增加increment;否则向集合中添加该元素,其score的值为increment

zUnion/zInter
参数
keyOutput
arrayZSetKeys
arrayWeights
aggregateFunction
 Either "SUM", "MIN", or "MAX": defines the behaviour to use on duplicate entries during the zUnion.
对N个zset求并集和交集,并将最后的集合保存在dstkeyN中。对于集合中每一个元素的score,在进行AGGREGATE运算前,都要乘以对于的WEIGHT参数。如果没有提供WEIGHT,默认为1。默认的AGGREGATE是SUM,即结果集合中元素的score是所有集合对应元素进行SUM运算的值,而MIN和MAX是指,结果集合中元素的score是所有集合对应元素中最小值和最大值。

Hash操作
hSet

$redis->hSet('h', 'key1', 'hello');
向名称为h的hash中添加元素key1—>hello

hGet
$redis->hGet('h', 'key1');
返回名称为h的hash中key1对应的value(hello)

hLen
$redis->hLen('h');
返回名称为h的hash中元素个数

hDel
$redis->hDel('h', 'key1');
删除名称为h的hash中键为key1的域

hKeys
$redis->hKeys('h');
返回名称为key的hash中所有键

hVals
$redis->hVals('h')
返回名称为h的hash中所有键对应的value

hGetAll
$redis->hGetAll('h');
返回名称为h的hash中所有的键(field)及其对应的value

hExists
$redis->hExists('h', 'a');
名称为h的hash中是否存在键名字为a的域

hIncrBy
$redis->hIncrBy('h', 'x', 2);
将名称为h的hash中x的value增加2

hMset
$redis->hMset('user:1', array('name' => 'Joe', 'salary' => 2000));
向名称为key的hash中批量添加元素

hMGet
$redis->hmGet('h', array('field1', 'field2'));
返回名称为h的hash中field1,field2对应的value

redis 操作相关
flushDB
清空当前数据库

flushAll

清空所有数据库

randomKey
随机返回key空间的一个key
$key = $redis->randomKey();

select
选择一个数据库
move
转移一个key到另外一个数据库
$redis->select(0); // switch to DB 0
$redis->set('x', '42'); // write 42 to x
$redis->move('x', 1); // move to DB 1
$redis->select(1); // switch to DB 1
$redis->get('x'); // will return 42

rename, renameKey
给key重命名
$redis->set('x', '42');
$redis->rename('x', 'y');
$redis->get('y'); // → 42
$redis->get('x'); // → `FALSE`

renameNx
与remane类似,但是,如果重新命名的名字已经存在,不会替换成功

setTimeout, expire
设定一个key的活动时间(s)
$redis->setTimeout('x', 3);

expireAt
key存活到一个unix时间戳时间
$redis->expireAt('x', time() + 3);

keys, getKeys
返回满足给定pattern的所有key
$keyWithUserPrefix = $redis->keys('user*');

dbSize
查看现在数据库有多少key
$count = $redis->dbSize();

auth
密码认证
$redis->auth('foobared');

bgrewriteaof
使用aof来进行数据库持久化
$redis->bgrewriteaof();

slaveof
选择从服务器
$redis->slaveof('10.0.1.7', 6379);

save
将数据同步保存到磁盘

bgsave
将数据异步保存到磁盘

lastSave
返回上次成功将数据保存到磁盘的Unix时戳

info

返回redis的版本信息等详情



type
返回key的类型值
string: Redis::REDIS_STRING
set: Redis::REDIS_SET
list: Redis::REDIS_LIST
zset: Redis::REDIS_ZSET
hash: Redis::REDIS_HASH
other: Redis::REDIS_NOT_FOUND

【Redis】ThinkPHP配置redis

Continue Read..
1. 下载类库 解压 上传到核心扩展 /Extend/Driver/Cache/ 下

2. 项目配置里新增如下配置内容:

  1.         'DATA_CACHE_PREFIX' => 'Redis_',//缓存前缀
  2.     'DATA_CACHE_TYPE'=>'Redis',//默认动态缓存为Redis
  3.     'REDIS_RW_SEPARATE' => true, //Redis读写分离 true 开启
  4.     'REDIS_HOST'=>'192.168.1.11,192.168.1.12', //redis服务器ip,多台用逗号隔开;读写分离开启时,第一台负责写,其它[随机]负责读;
  5.     'REDIS_PORT'=>'6379',//端口号
  6.     'REDIS_TIMEOUT'=>'300',//超时时间
  7.     'REDIS_PERSISTENT'=>false,//是否长连接 false=短连接
  8.     'REDIS_AUTH'=>'',//AUTH认证密码
复制代码
3. 缓存的使用 参看 THINKPHP 手册 快捷缓存 内容

S('data',123);//写入缓存操作

S('data',3600,'1111'); // 有效期写入

S('data');//读取缓存操作

CacheRedis.class.zip

声明:此文系舞林cuznwww.wulinlw.org)原创稿件,转载请保留版权

【Redis】Redis安装整理(window平台和Linux平台)

Continue Read..
window平台Redis安装 

redis windows安装文件下载地址:http://code.google.com/p/servicestack/wiki/RedisWindowsDownload#Download_32bit_Cygwin_builds_for_Windows
我选择的redis为最新版的安装文件,见下图: 
 
  
Redis安装文件解压后,有以下几个文件。见下图 
 
redis-server.exe:服务程序 
redis-check-dump.exe:本地数据库检查 
redis-check-aof.exe:更新日志检查 
redis-benchmark.exe:性能测试,用以模拟同时由N个客户端发送M个 SETs/GETs 查询 (类似于 Apache 的ab 工具). 

在解压好redis的安装文件到E:\根目录后,还需要在redis根目录增加一个redis的配置文件redis.conf,文件具体内容附件中有,不过这里我仍然把配置文件的内容贴上来: 
Java代码  收藏代码
  1. # Redis configuration file example  
  2.   
  3. # By default Redis does not run as a daemon. Use 'yes' if you need it.  
  4. # Note that Redis will write a pid file in /var/run/redis.pid when daemonized.  
  5. daemonize no  
  6.   
  7. # When run as a daemon, Redis write a pid file in /var/run/redis.pid by default.  
  8. # You can specify a custom pid file location here.  
  9. pidfile /var/run/redis.pid  
  10.   
  11. # Accept connections on the specified port, default is 6379  
  12. port 6379  
  13.   
  14. # If you want you can bind a single interfaceif the bind option is not  
  15. # specified all the interfaces will listen for connections.  
  16. #  
  17. # bind 127.0.0.1  
  18.   
  19. # Close the connection after a client is idle for N seconds (0 to disable)  
  20. timeout 300  
  21.   
  22. # Set server verbosity to 'debug'  
  23. # it can be one of:  
  24. # debug (a lot of information, useful for development/testing)  
  25. # notice (moderately verbose, what you want in production probably)  
  26. # warning (only very important / critical messages are logged)  
  27. loglevel debug  
  28.   
  29. # Specify the log file name. Also 'stdout' can be used to force  
  30. # the demon to log on the standard output. Note that if you use standard  
  31. # output for logging but daemonize, logs will be sent to /dev/null  
  32. logfile stdout  
  33.   
  34. # Set the number of databases. The default database is DB 0, you can select  
  35. # a different one on a per-connection basis using SELECT <dbid> where  
  36. # dbid is a number between 0 and 'databases'-1  
  37. databases 16  
  38.   
  39. ################################ SNAPSHOTTING  #################################  
  40. #  
  41. # Save the DB on disk:  
  42. #  
  43. #   save <seconds> <changes>  
  44. #  
  45. #   Will save the DB if both the given number of seconds and the given  
  46. #   number of write operations against the DB occurred.  
  47. #  
  48. #   In the example below the behaviour will be to save:  
  49. #   after 900 sec (15 min) if at least 1 key changed  
  50. #   after 300 sec (5 min) if at least 10 keys changed  
  51. #   after 60 sec if at least 10000 keys changed  
  52. save 900 1  
  53. save 300 10  
  54. save 60 10000  
  55.   
  56. # Compress string objects using LZF when dump .rdb databases?  
  57. # For default that's set to 'yes' as it's almost always a win.  
  58. # If you want to save some CPU in the saving child set it to 'no' but  
  59. # the dataset will likely be bigger if you have compressible values or keys.  
  60. rdbcompression yes  
  61.   
  62. # The filename where to dump the DB  
  63. dbfilename dump.rdb  
  64.   
  65. # For default save/load DB in/from the working directory  
  66. # Note that you must specify a directory not a file name.  
  67. dir ./  
  68.   
  69. ################################# REPLICATION #################################  
  70.   
  71. # Master-Slave replication. Use slaveof to make a Redis instance a copy of  
  72. # another Redis server. Note that the configuration is local to the slave  
  73. # so for example it is possible to configure the slave to save the DB with a  
  74. # different interval, or to listen to another port, and so on.  
  75. #  
  76. # slaveof <masterip> <masterport>  
  77.   
  78. # If the master is password protected (using the "requirepass" configuration  
  79. # directive below) it is possible to tell the slave to authenticate before  
  80. # starting the replication synchronization process, otherwise the master will  
  81. # refuse the slave request.  
  82. #  
  83. # masterauth <master-password>  
  84.   
  85. ################################## SECURITY ###################################  
  86.   
  87. # Require clients to issue AUTH <PASSWORD> before processing any other  
  88. # commands.  This might be useful in environments in which you do not trust  
  89. # others with access to the host running redis-server.  
  90. #  
  91. # This should stay commented out for backward compatibility and because most  
  92. # people do not need auth (e.g. they run their own servers).  
  93. #  
  94. # requirepass foobared  
  95.   
  96. ################################### LIMITS ####################################  
  97.   
  98. # Set the max number of connected clients at the same time. By default there  
  99. # is no limit, and it's up to the number of file descriptors the Redis process  
  100. # is able to open. The special value '0' means no limts.  
  101. # Once the limit is reached Redis will close all the new connections sending  
  102. # an error 'max number of clients reached'.  
  103. #  
  104. # maxclients 128  
  105.   
  106. # Don't use more memory than the specified amount of bytes.  
  107. # When the memory limit is reached Redis will try to remove keys with an  
  108. # EXPIRE set. It will try to start freeing keys that are going to expire  
  109. # in little time and preserve keys with a longer time to live.  
  110. # Redis will also try to remove objects from free lists if possible.  
  111. #  
  112. # If all this fails, Redis will start to reply with errors to commands  
  113. # that will use more memory, like SET, LPUSH, and so on, and will continue  
  114. # to reply to most read-only commands like GET.  
  115. #  
  116. # WARNING: maxmemory can be a good idea mainly if you want to use Redis as a  
  117. 'state' server or cache, not as a real DB. When Redis is used as a real  
  118. # database the memory usage will grow over the weeks, it will be obvious if  
  119. # it is going to use too much memory in the long run, and you'll have the time  
  120. # to upgrade. With maxmemory after the limit is reached you'll start to get  
  121. # errors for write operations, and this may even lead to DB inconsistency.  
  122. #  
  123. # maxmemory <bytes>  
  124.   
  125. ############################## APPEND ONLY MODE ###############################  
  126.   
  127. # By default Redis asynchronously dumps the dataset on disk. If you can live  
  128. # with the idea that the latest records will be lost if something like a crash  
  129. # happens this is the preferred way to run Redis. If instead you care a lot  
  130. # about your data and don't want to that a single record can get lost you should  
  131. # enable the append only mode: when this mode is enabled Redis will append  
  132. # every write operation received in the file appendonly.log. This file will  
  133. # be read on startup in order to rebuild the full dataset in memory.  
  134. #  
  135. # Note that you can have both the async dumps and the append only file if you  
  136. # like (you have to comment the "save" statements above to disable the dumps).  
  137. # Still if append only mode is enabled Redis will load the data from the  
  138. # log file at startup ignoring the dump.rdb file.  
  139. #  
  140. # The name of the append only file is "appendonly.log"  
  141. #  
  142. # IMPORTANT: Check the BGREWRITEAOF to check how to rewrite the append  
  143. # log file in background when it gets too big.  
  144.   
  145. appendonly no  
  146.   
  147. # The fsync() call tells the Operating System to actually write data on disk  
  148. # instead to wait for more data in the output buffer. Some OS will really flush  
  149. # data on disk, some other OS will just try to do it ASAP.  
  150. #  
  151. # Redis supports three different modes:  
  152. #  
  153. # no: don't fsync, just let the OS flush the data when it wants. Faster.  
  154. # always: fsync after every write to the append only log . Slow, Safest.  
  155. # everysec: fsync only if one second passed since the last fsync. Compromise.  
  156. #  
  157. # The default is "always" that's the safer of the options. It's up to you to  
  158. # understand if you can relax this to "everysec" that will fsync every second  
  159. # or to "no" that will let the operating system flush the output buffer when  
  160. # it want, for better performances (but if you can live with the idea of  
  161. # some data loss consider the default persistence mode that's snapshotting).  
  162.   
  163. appendfsync always  
  164. # appendfsync everysec  
  165. # appendfsync no  
  166.   
  167. ############################### ADVANCED CONFIG ###############################  
  168.   
  169. # Glue small output buffers together in order to send small replies in a  
  170. # single TCP packet. Uses a bit more CPU but most of the times it is a win  
  171. # in terms of number of queries per second. Use 'yes' if unsure.  
  172. glueoutputbuf yes  
  173.   
  174. # Use object sharing. Can save a lot of memory if you have many common  
  175. # string in your dataset, but performs lookups against the shared objects  
  176. # pool so it uses more CPU and can be a bit slower. Usually it's a good  
  177. # idea.  
  178. #  
  179. # When object sharing is enabled (shareobjects yes) you can use  
  180. # shareobjectspoolsize to control the size of the pool used in order to try  
  181. # object sharing. A bigger pool size will lead to better sharing capabilities.  
  182. # In general you want this value to be at least the double of the number of  
  183. # very common strings you have in your dataset.  
  184. #  
  185. # WARNING: object sharing is experimental, don't enable this feature  
  186. # in production before of Redis 1.0-stable. Still please try this feature in  
  187. # your development environment so that we can test it better.  
  188. # shareobjects no  
  189. # shareobjectspoolsize 1024  


将附件中的redis_conf.rar解压下来放到redis的根目录中即可。到此,redis的安装已经完毕。下面开始使用redis数据库。 

启动redis: 
输入命令:redis-server.exe redis.conf 
启动后如下图所示: 
 

启动cmd窗口要一直开着,关闭后则Redis服务关闭。 
这时服务开启着,另外开一个窗口进行,设置客户端: 
输入命令:redis-cli.exe -h 202.117.16.133 -p 6379 
输入后如下图所示: 
 
然后可以开始玩了: 

设置一个Key并获取返回的值: 
Java代码  收藏代码
  1. $ ./redis-cli set mykey somevalue  
  2. OK  
  3. $ ./redis-cli get mykey  
  4. Somevalue  


如何添加值到list:   
Java代码  收藏代码
  1. $ ./redis-cli lpush mylist firstvalue  
  2. OK  
  3. $ ./redis-cli lpush mylist secondvalue  
  4. OK  
  5. $ ./redis-cli lpush mylist thirdvalue  
  6. OK  
  7. $ ./redis-cli lrange mylist 0 -1  
  8. . thirdvalue  
  9. . secondvalue  
  10. . firstvalue  
  11. $ ./redis-cli rpop mylist  
  12. firstvalue  
  13. $ ./redis-cli lrange mylist 0 -1  
  14. . thirdvalue  
  15. . secondvalue  


redis-benchmark.exe:性能测试,用以模拟同时由N个客户端发送M个 SETs/GETs 查询 (类似于 Apache 的 ab 工具). 
Java代码  收藏代码
  1. ./redis-benchmark -n 100000 –c 50  
  2.     ====== SET ======  
  3.     100007 requests completed in 0.88 seconds (译者注:100004 查询完成于 1.14 秒 )  
  4. 50 parallel clients (译者注:50个并发客户端)  
  5. 3 bytes payload (译者注:3字节有效载荷)  
  6. keep alive: 1 (译者注:保持1个连接)  
  7. 58.50% <= 0 milliseconds(译者注:毫秒)  
  8. 99.17% <= 1 milliseconds  
  9. 99.58% <= 2 milliseconds  
  10. 99.85% <= 3 milliseconds  
  11. 99.90% <= 6 milliseconds  
  12. 100.00% <= 9 milliseconds  
  13. 114293.71 requests per second(译者注:每秒 114293.71 次查询)  

Windows下测试并发客户端极限为60 

======================================================================== 

linux平台Redis安装: 
Java代码  收藏代码
  1. wget http://code.google.com/p/redis/downloads/detail?name=redis-2.0.4.tar.gz  
  2. tar xvzf redis-2.0.4.tar.gz  
  3. cd  redis-2.0.4  
  4. make  
  5. mkdir /home/redis  
  6. cp redis-server  /home/redis  
  7. cp redis-benchmark  /home/redis  
  8. cp redis-cli  /home/redis  
  9. cp redis.conf  /home/redis  
  10. cd  /home/redis  


在安装过程中可能需要用到sudo命令,可能新装的redhat虚拟机中新用户还不能使用sudo命令,因此需要手动的修改/etc/sudoers文件,命令如下: 
Java代码  收藏代码
  1. cd /etc  
  2. su root ##切换为root用户,同时输入密码  
  3. chmod u+w sudoers ##放开sudoers文件的写权限  
  4. ##在root ALL = (ALL) ALL下面一行增加 "你的用户名" ALL = (ALL) ALL  
  5. :wq ##保存退出  
  6. chmod u-w sudoers ##取消修改权限  


启动 
./redis-server redis.conf 
进入命令交互模式,两种: 
1:   ./redis-cli 
2:   telnet 127.0.0.1 6379       (ip接端口) 

============================================================= 
配置文件参数说明: 

1. Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程 
    daemonize no 
2. 当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定 
    pidfile /var/run/redis.pid 
3. 指定Redis监听端口,默认端口为6379,作者在自己的一篇博文中解释了为什么选用6379作为默认端口,因为6379在手机按键上MERZ对应的号码,而MERZ取自意大利歌女Alessia Merz的名字 
    port 6379 
4. 绑定的主机地址 
    bind 127.0.0.1 
5.当 客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能 
    timeout 300 
6. 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose 
    loglevel verbose 
7. 日志记录方式,默认为标准输出,如果配置Redis为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null 
    logfile stdout 
8. 设置数据库的数量,默认数据库为0,可以使用SELECT <dbid>命令在连接上指定数据库id 
    databases 16 
9. 指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合 
    save <seconds> <changes> 
    Redis默认配置文件中提供了三个条件: 
    save 900 1 
    save 300 10 
    save 60 10000
 
    分别表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改。 

10. 指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变的巨大 
    rdbcompression yes 
11. 指定本地数据库文件名,默认值为dump.rdb 
    dbfilename dump.rdb 
12. 指定本地数据库存放目录 
    dir ./ 
13. 设置当本机为slav服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步 
    slaveof <masterip> <masterport> 
14. 当master服务设置了密码保护时,slav服务连接master的密码 
    masterauth <master-password> 
15. 设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过AUTH <password>命令提供密码,默认关闭 
    requirepass foobared 
16. 设置同一时间最大客户端连接数,默认无限制,Redis可以同时打开的客户端连接数为Redis进程可以打开的最大文件描述符数,如果设置 maxclients 0,表示不作限制。当客户端连接数到达限制时,Redis会关闭新的连接并向客户端返回max number of clients reached错误信息 
    maxclients 128 
17. 指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理 后,仍然到达最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作。Redis新的vm机制,会把Key存放内存,Value会存放在swap区 
    maxmemory <bytes> 
18. 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no 
    appendonly no 
19. 指定更新日志文件名,默认为appendonly.aof 
     appendfilename appendonly.aof 
20. 指定更新日志条件,共有3个可选值: 
    no:表示等操作系统进行数据缓存同步到磁盘(快) 
    always:表示每次更新操作后手动调用fsync()将数据写到磁盘(慢,安全) 
    everysec:表示每秒同步一次(折衷,默认值) 
    appendfsync everysec 

21. 指定是否启用虚拟内存机制,默认值为no,简单的介绍一下,VM机制将数据分页存放,由Redis将访问量较少的页即冷数据swap到磁盘上,访问多的页面由磁盘自动换出到内存中(在后面的文章我会仔细分析Redis的VM机制) 
     vm-enabled no 
22. 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享 
     vm-swap-file /tmp/redis.swap 
23. 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0 
     vm-max-memory 0 
24. Redis swap文件分成了很多的page,一个对象可以保存在多个page上面,但一个page上不能被多个对象共享,vm-page-size是要根据存储的 数据大小来设定的,作者建议如果存储很多小对象,page大小最好设置为32或者64bytes;如果存储很大大对象,则可以使用更大的page,如果不 确定,就使用默认值 
     vm-page-size 32 
25. 设置swap文件中的page数量,由于页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,,在磁盘上每8个pages将消耗1byte的内存。 
     vm-pages 134217728 
26. 设置访问swap文件的线程数,最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的,可能会造成比较长时间的延迟。默认值为4 
     vm-max-threads 4 
27. 设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启 
    glueoutputbuf yes 
28. 指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法 
    hash-max-zipmap-entries 64 
    hash-max-zipmap-value 512
 
29. 指定是否激活重置哈希,默认为开启(后面在介绍Redis的哈希算法时具体介绍) 
    activerehashing yes 
30. 指定包含其它的配置文件,可以在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有自己的特定配置文件 
    include /path/to/local.conf