[네트워크]latency, bandwidth와 throughput 개념 정리

프로그래밍/서버2020. 8. 30. 11:38

latency(지연 속도)

네트워크에서 하나의 데이터 패킷이 한 지점에서 다른 지점으로 보내지는 데 소요되는 시간.

 

latency는 가장 이해하기 쉬운 개념같습니다. 온라인 게임에서도 쉽게 접할 수 있는 개념인데 latency가 높다면 게임이 부드럽게 보이지 않고 렉 걸린 것처럼 뚝뚝 끊어집니다. 인터넷을 예로 들면 어떤 사이트에 접속했는데 바로 페이지가 로딩된다면 그 사이트는 latency가 낮은 좋은 사이트입니다. 반대로 어떤 사이트들은 몇 초가 지나서야 뜨기도 하죠.

 

일반적으로 latency는 두 네트워크의 거리가 멀 때 높아집니다. 미국 출장갔을 때 퇴근 후 한국 온라인 게임을 했던 기억이 있는데 1~3초 정도의 latency가 있어서 렉 걸린 것처럼 게임을 하기 좀 힘들었던 경험이 있습니다. 미국에서 한국에 있는 게임서버까지.. 해저 케이블들 타고 패킷들이 왔다갔다 해야하니.. latency가 생길 수 밖에 없습니다.

 

bandwidth(대역폭)

컴퓨터 네트워크나 인터넷이 특정 시간 내에 보낼 수 있는 정보량. 흔히 초당 비트로 측정됨

 

흔히 도로의 폭에 비유를 합니다. 도로의 폭(bandwidth)이 넓을수록 더 많은 자동차(데이터)가 지나다닐 수 있습니다.

 

 

throughput(처리량, 출력)

지정된 시간 내에 전송된, 혹은 처리된 전체의 유효한 정보량. 처리량이라고도 한다.

 

bandwidth와 상당히 헷갈리는 내용입니다. bandwidth가 이론상의 이상적인 전송량이라고 보면 되고,  throughput은 실제로 전달된 전송량이라고 보면 됩니다.

네트워크에서는 latency, jitter, packet loss등으로 인해 이상적인 bandwidth보다 낮은 throughput을 가지게 됩니다.

예를 들어 설명하면 도로의 폭(bandwidth)이 넓다는 것은 특정 시간당 많은 자동차(데이터)가 지나다닐 수 있다는 것을 의미합니다. 하지만 아무리 도로의 폭이 넓어도 (어떤 문제로 인해) 그 곳을 지나다니는 자동차가 적다면 throughput은 작을 수 밖에 없습니다.

 

작성자

Posted by 드리머즈

관련 글

댓글 영역