时间:2024-06-01人气:作者:未知
不使用session,换作cookie
能把session改成cookie,就能避开session的一些弊端,在从前看的一本J2EE的书上,也指明在集群系统中不能用session,否则惹出祸端来就不好办。如果系统不复杂,就优先考虑能否将session去掉,改动起来非常麻烦的话,再用下面的办法。
应用服务器自行实现共享
已知的,php可以用数据库或memcached来保存session,从而在php本身建立了一个session集群,用这样的方式可以令 session保证稳定,即使某个节点有故障,session也不会丢失,适用于较为严格但请求量不高的场合。但是它的效率是不会很高的,不适用于对效率 要求高的场合。
以上两个办法都跟nginx没什么关系,下面来说说用nginx该如何处理:
ip_hash
nginx中的ip_hash技术能够将某个ip的请求定向到同一台后端,这样一来这个ip下的某个客户端和某个后端就能建立起稳固的session,ip_hash是在upstream配置中定义的:
代码如下 | |
upstream backend { server 127.0.0.1:8001; server 127.0.0.1:8002; ip_hash; } |
ip_hash是容易理解的,但是因为仅仅能用ip这个因子来分配后端,因此ip_hash是有缺陷的,不能在一些情况下使用:
1/ nginx不是最前端的服务器。ip_hash要求nginx一定是最前端的服务器,否则nginx得不到正确ip,就不能根据ip作hash。譬如使用 的是squid为最前端,那么nginx取ip时只能得到squid的服务器ip地址,用这个地址来作分流是肯定错乱的。
2/ nginx的后端还有其它方式的负载均衡。假如nginx后端又有其它负载均衡,将请求又通过另外的方式分流了,那么某个客户端的请求肯定不能定位到同一 台session应用服务器上。这么算起来,nginx后端只能直接指向应用服务器,或者再搭一个squid,然后指向应用服务器。最好的办法是用 location作一次分流,将需要session的部分请求通过ip_hash分流,剩下的走其它后端去。
upstream_hash
为了解决ip_hash的一些问题,可以使用upstream_hash这个第三方模块,这个模块多数情况下是用作url_hash的,但是并不妨碍将它用来做session共享:
假如前端是squid,他会将ip加入x_forwarded_for这个http_header里,用upstream_hash可以用这个头做因子,将请求定向到指定的后端:
hash $http_x_forwarded_for;
这样就改成了利用x_forwarded_for这个头作因子,在nginx新版本中可支持读取cookie值,所以也可以改成:
hash $cookie_jsessionid;
nginx中一台服务器单iP多域名配置 nginx绑定多个域名可又把多个域名规则写一个配置文件里,也可又分别建立多个域名配置文件,我一般为了管理方便,每个域名建
(0)人喜欢2024-06-01编写每天定时切割Nginx日志的脚本 下面是deepvps自己用的自动每天定时切割Nginx日志的脚本,很方便很好用,推荐给大家使用。本脚本也是参考了张宴老师的
(0)人喜欢2024-06-01nginx只允许执行php程序配置 方法一,nginx限制后缀 解决办法: 代码如下 location ~* .(txt|doc|sql|gz)$ { if (
(0)人喜欢2024-06-01nginx+php使用open_basedir限制站点目录防止跨站 方法1)在Nginx配置文件中加入 fastcgi_param PHP_VALUE "ope
(0)人喜欢2024-06-01nginx中一台服务器单iP多域名配置 nginx绑定多个域名可又把多个域名规则写一个配置文件里,也可又分别建立多个域名配置文件,我一般为了管理方便,每个域名建
(0)人喜欢2024-06-01nginx session共享的问题 不使用session,换作cookie 能把session改成cookie,就能避开session的一些弊端,在从前看的一
(0)人喜欢2024-06-01编写每天定时切割Nginx日志的脚本 下面是deepvps自己用的自动每天定时切割Nginx日志的脚本,很方便很好用,推荐给大家使用。本脚本也是参考了张宴老师的
(0)人喜欢2024-06-01nginx只允许执行php程序配置 方法一,nginx限制后缀 解决办法: 代码如下 location ~* .(txt|doc|sql|gz)$ { if (
(0)人喜欢2024-06-01