一个web服务器能承受多少访问量?

2024-05-10

1. 一个web服务器能承受多少访问量?

没有固定,需要看服务器配置高低。
不仅仅是访问量问题,主要是数据,如果站点数据量不是太大。没有太多的查询。一台P4的普通电脑可以承受成千上万的上网用户。(还有带宽问题,比如共享的100兆位。高带宽。在线人数更多)



如果您有一个几百兆字节或几十亿字节的数据库。这是另一回事。服务器的内存必须至少是数据库的3倍才能运行。



无论如何。常见的企业网站。几百米的股票。P4的平台。网上几千个就足够了(没有下载,没有视频)。

扩展资料:
WEB服务器类型:



1,IIS







IIS服务器称为:Internet信息服务。它是微软公司拥有的web服务器,是目前最流行的web服务器产品之一。







2、康乐







Kanglewebserver(Kangle)是一款跨平台、功能强大、安全稳定、易于操作的高性能web服务器和反向代理服务器软件。







3,WebSphere







WebSphereApplicationServer是一个功能齐全的开放Web应用程序服务器,它是IBM电子商务计划的核心部分。它是一个基于java的应用程序环境,用于构建、部署和管理Internet和IntranetWeb应用程序。







4,WebLogic







BEAWebLogicServer是一个多功能的、基于标准的web应用程序服务器,为企业构建自己的应用程序提供了坚实的基础。







5,Apache







Apache是世界上使用最多的Web服务器,占有大约60%的市场份额。







6,Tomcat







Tomcat是一个开源的基于java的Web应用程序容器,它运行servlet和JSPWeb应用程序。







7,Jboss







它是一个基于J2EE的开源应用服务器。JBoss代码是在LGPL下授权的,可以在任何商业应用程序中免费使用,而不需要支付任何费用。

一个web服务器能承受多少访问量?

2. 服务器如何实现承受如此大量的用户请求?

首先我想说楼主的提问列表很程序员,从0开始的。
这个当然是不一定的,楼主已经知道问题是负载均衡了,现在大型服务器一般都会做成分布式的。
其实你说的意思应该是直接处理这个请求还是我找另外一个机器处理你的请求。
服务器分发请求有很多种策略,举个简单的例子。某个服务器在登录的时候根据用户的ID取模,然后选择对应的一台机器进行转发,这是一种比较简单的分发请求策略了。再比如很多游戏服务器会分网通、电信等大区,然后大区下有分1,2,3...多个房间,这些其实都是分发请求的例子。
根据你的业务类型,可能会存在一个必须有集中处理的过程。比如登录校验这个过程,所有的请求最终都要去查询db,那么如果db只有一台的话就会存在你说的集中处理情况。现在的开发很聪明的,无论是高并发还是容灾都不会只搞一台db的,他们可以分库分表,可会主从备份,甚至是读写分离。
在设计服务器的时候,肯定会相对会有4中的情况,我们当然不希望因为4中的情况而影响整个服务器的性能。我们可以把分发策略放在客户端,比如登录的时候在客户端进行选择,直接登录到负载较低的服务器上。你会说客户端查询各个服务器的负载情况这个功能接口会压力很大,其实不做IO操作的话,仅仅是获取内存中的数据性能会很高的。

如果楼主需要进行服务器压力测试的话可以试试腾讯公司的一款工具WeTest服务器性能,用来测试服务器各个接口的性能情况很有效,附个链接:http://wetest.qq.com/gaps/。

3. 服务器如何实现承受如此大量的用户请求

对于海量数据和海量并发请求,集群处理,有LB导致的需求,也有存储容量导致的需求。在以微服务的架构下,一个业务流程可能会经历多个业务服务器。而这多个业务服务器,甚至包含Gate服务,是不是需要转发,有LB导致的需求,也有后端服务LB或者存储容量导致的需求。而且,还有一大类是容灾和故障转移等安全和稳定性导致的需求。  比如作为一个Gateway,要访问后端用户交易系统,分发请求道不同的用户交易系统Gateway,这个可以说是因为后端用户交易系统Gateway的LB导致的需求;又比如作为一个Gateway,要访问后端数据库,分发请求到不同的数据库,这是容量导致的需求;又比如作为一个Gateway,要访问后端About或者其他极少变动也极少访问的业务配置信息缓存,这是架构设计容灾灾备导致的需求,和LB、容量等等无关。又比如作为一个业务服务,当需要聚合资源时,分发请求到不同的后端服务上去,这是架构设计也业务导致的需求,可能完全和LB没有半毛钱关系。而分发请求的方式呢,一般我常用的有这么几种(根据不同的需求,用的方式不同): 一致性Hash,随机、轮转、分区/段、强一致性分发、广播、任一成功广播、半数成功广播。 再说一遍,业务不同,需求不同,方式也就不同。

服务器如何实现承受如此大量的用户请求

4. 服务器如何实现承受如此大量的用户请求?

对于海量数据和海量并发请求,集群处理,有LB导致的需求,也有存储容量导致的需求。在以微服务的架构下,一个业务流程可能会经历多个业务服务器。而这多个业务服务器,甚至包含Gate服务,是不是需要转发,有LB导致的需求,也有后端服务LB或者存储容量导致的需求。而且,还有一大类是容灾和故障转移等安全和稳定性导致的需求。  比如作为一个Gateway,要访问后端用户交易系统,分发请求道不同的用户交易系统Gateway,这个可以说是因为后端用户交易系统Gateway的LB导致的需求;又比如作为一个Gateway,要访问后端数据库,分发请求到不同的数据库,这是容量导致的需求;又比如作为一个Gateway,要访问后端About或者其他极少变动也极少访问的业务配置信息缓存,这是架构设计容灾灾备导致的需求,和LB、容量等等无关。又比如作为一个业务服务,当需要聚合资源时,分发请求到不同的后端服务上去,这是架构设计也业务导致的需求,可能完全和LB没有半毛钱关系。而分发请求的方式呢,一般我常用的有这么几种(根据不同的需求,用的方式不同): 一致性Hash,随机、轮转、分区/段、强一致性分发、广播、任一成功广播、半数成功广播。 再说一遍,业务不同,需求不同,方式也就不同。
最新文章
热门文章
推荐阅读