1. 物理电路
访问服务器的用户之间的路由节点太多。虽然光/电传输速度很快,在物理介质中的传播时间几乎可以忽略不计,但路由器转发数据包的处理时间也不容忽视。当接入服务器链路中路由转发进程过多时,网络延迟会很明显,网络速度会很慢。
带宽以Mbps或兆位/秒为单位,包括上行带宽和下行带宽,这意味着进出服务器的总流量不能超过带宽。在不影响其他因素的情况下,客户端和服务器之间只有一个路由器连接,但是带宽仍然低于10M,但是有很多应用同时传输20M远超带宽的数据,会造成大量的数据丢失,说明网速响应延迟,网速会很慢。
3. 服务器性能不够
带宽越大,流量越高,对服务器性能的要求也越高。流量大意味着数据和信息越多,服务器性能不足,处理信息时响应慢,从而影响服务器的信息反馈,客户端接收信息慢,网络延迟高。
4. 服务器管理不善
如果服务器不经常维护,处理冗余信息和清理垃圾文件会影响服务器的响应速度,自然会降低访问速度。
网络攻击不仅包括DDOS、CC等流量攻击,还包括病毒、黑客等。流量攻击是指攻击者向服务器发出大量无效的访问请求,这些请求形成大量流量阻塞服务器的带宽,使得正常流量很难访问服务器,从而使服务器网速变慢;病毒攻击和黑客的非法入侵会导致服务器系统运行缓慢甚至崩溃,自然无法处理正常的访问请求,服务器的网速也无法保证。
当然,影响网速最直接的原因是线路距离。物理线路越长,网络延迟越慢。带宽再大,线路再优化,都会受到很大影响。所以租用美国服务器时,物理线路长对网速影响很大。而美国服务器的免备案、带宽大、价格低的优势,也受到中国用户的欢迎。只要服务器维护好,选CN2线,选CDN加速,保证服务器的稳定性,美国服务器在中国的访问速度其实是很快的。有不懂的请咨询梦飞云idc了解。