GigE Vision 카메라의 대안으로서 GMSL 카메라

글: 카이난 왕(Kainan Wang) 시스템 애플리케이션 엔지니어 / 아나로그디바이스(Analog Devices, Inc.)


개요

GMSL(Gigabit Multimedia Serial Link)과 GigE(Gigabit Ethernet)는 다양한 최종 시장의 카메라 애플리케이션에서 널리 사용되고 있는 두 가지 링크 기술이다. 이 글에서는 이 두 기술의 시스템 아키텍처, 주요 특징, 한계점 등을 비교 분석한다. 이러한 분석은 두 기술을 보다 근본적으로 이해하고 왜 GMSL 카메라가 GigE Vision® 카메라의 강력한 대안이 될 수 있는지 이해하는 데 도움이 될 것이다.


머리말

GigE Vision은 이더넷 인프라 및 프로토콜을 기반으로 한 네트워크 카메라 인터페이스 표준이다. GigE Vision은 산업용 분야에 널리 채택되고 있다. 아나로그디바이스(Analog Devices)의 GMSL 은 전적으로 비디오 데이터 전송을 위한 포인트-투-포인트 시리얼 링크 기술로서, 원래 차량용 카메라와 디스플레이 애플리케이션을 위해 개발되었다.

두 기술 모두 이미지 센서로부터 비디오 데이터를 전송하기 위한 것이지만, 각자 고유한 특징들을 갖고 있다. 지난 몇 년 사이, 자동차 이외의 분야에서 GigE Vision 카메라 대신 GMSL 카메라를 도입하는 사례가 늘고 있는 것을 확인할 수 있다.


통상적인 시스템 아키텍처

이미지 센서 연결

GigE Vision 카메라의 신호 체인은 이미지 센서, 프로세서, 이더넷 PHY의 크게 3가지 요소들로 구성된다(그림 1). 프로세서는 이미지 센서로부터 받은 미가공 이미지 데이터를 이더넷 프레임으로 변환한다. 이 프로세스는 이미지 프로세싱과 압축 또는 프레임 버퍼링으로 이루어지고, 이를 통해 데이터 레이트를 이더넷이 지원하는 대역폭으로 맞춘다.

Figure 1. Key signal chain component on the sensor side for GigE Vision cameras.
그림 1. GigE Vision 카메라의 센서 측 주요 신호 체인 구성 부품

GMSL의 신호 체인은 이미지 센서와 시리얼라이저(serializer)로만 이루어지므로 좀더 간단하다(그림 2). 통상의 애플리케이션에서, 시리얼라이저가 이미지 센서로부터 미가공 데이터를 변환한 다음, 이것을 원래 포맷 그대로 링크를 통해 전송한다. GMSL 카메라는 프로세서가 필요하지 않으므로 설계가 더 간단하며, 소형화된 카메라 폼팩터와 낮은 전력 소모를 요구하는 애플리케이션에 적합하다.

Figure 2. Key signal chain component on the sensor side for GMSL cameras.
그림 2. GMSL 카메라의 센서 측 주요 신호 체인 구성 부품

호스트 프로세서 연결

GigE Vision 카메라는 다양한 호스트 디바이스와 호환 가능하다는 점에서 널리 사용되고 있다. 기가비트 이더넷 포트는 개인용 컴퓨터(PC)나 임베디드 플랫폼에서 거의 표준 기능으로 자리잡고 있다. 일부 GigE Vision 카메라는 범용 드라이버를 사용하여 동작할 수 있기 때문에 진정한 플러그-앤-플레이 경험을 가능하게 한다.

GMSL 카메라는 호스트 측에 디시리얼라이저(deserializer)가 필요하다. 대부분의 경우에 호스트 디바이스는 하나 혹은 여러 개의 디시리얼라이저를 포함하는 맞춤형 임베디드 플랫폼이다. 디시리얼라이저가 이미지 센서 MIPI 출력으로부터 받은 원래 포맷대로 MIPI 트랜스미터를 통해서 이미지 데이터를 전송한다. GMSL 카메라는 여느 다른 MIPI 카메라와 마찬가지로 각각의 맞춤형 카메라 설계마다 카메라 드라이버를 필요로 한다. 다만, 이미지 센서를 위한 기존 드라이버가 있다면, SerDes 쌍이 카메라에서 SoC로 비디오 스트림을 전달하는 데에는 몇 개의 프로파일 레지스터와 몇 번의 레지스터 쓰기 작업 정도만 필요하다.

카메라를 한 대만 사용한다면 시스템 복잡성 면에서는 GMSL보다 GigE Vision이 유리하다. 이더넷 포트를 사용해서 PC나 임베디드 플랫폼에 곧바로 연결할 수 있기 때문이다. 하지만 여러 대의 GigE 카메라를 사용할 때는 이더넷 스위치가 필요하다. 이는 여러 이더넷 포트들과 SoC 간의 전용 이더넷 스위치 장비이거나, 여러 개의 이더넷 포트를 제공하는 네트워크 인터페이스 카드(network interface card, NIC), 또는 이더넷 스위치 IC일 수 있다. 그러므로 경우에 따라 최대 총 데이터 레이트를 떨어트릴 수 있으며, 좀더 심하게는 카메라와 단말기 사이의 인터페이스에 따라서 예기치 않은 지연을 일으킬 수도 있다(그림 3).

Figure 3. A typical GigE Vision network.
그림 3. 통상적인 GigE Vision 네트워크

GMSL 카메라 시스템에서는 하나의 디시리얼라이저가 MIPI C-PHY 또는 D-PHY 트랜스미터를 통해서 최대 4개 링크로 연결하고 모든 4개 카메라의 최대 대역폭을 지원할 수 있다. 그러므로 SoC가 총 데이터 레이트를 처리할 수만 있다면, 하나 혹은 여러 개의 GMSL 디바이스를 사용하는 것이 대역폭을 떨어트리거나 시스템 복잡성을 과도하게 높이지 않는다.

Figure 4. Typical GMSL cameras to host connection.
그림 4. 통상적인 GMSL 카메라 대 호스트 연결

특징 비교

센서 인터페이스

GMSL 시리얼라이저는 병렬 LVDS(GMSL1) 및 MIPI(GMSL2/GMSL3) 센서 인터페이스만 지원한다. MIPI는 소비가전 및 차량용 카메라에 가장 널리 사용되는 이미지 센서 인터페이스이므로 GMSL 카메라에 다양한 이미지 센서들을 사용할 수 있다. GigE Vision 카메라는 카메라 내부의 프로세서 덕분에 센서 인터페이스에 있어서 좀더 범용적이다.


비디오 규격

작동 원리

그림 5의 타이밍 다이어그램은 이미지 센서로부터 GMSL 링크 또는 GigE 네트워크로 데이터를 어떻게 연속으로 비디오 스트리밍하는지 보여준다.

Figure 5. A video transmission timing diagram.
그림 5. 비디오 전송 타이밍 다이어그램

비디오 스트림의 매 프레임마다 이미지 센서가 노출 동작 후에 즉시 데이터를 내보내고 휴지(idle) 상태가 된 다음, 다시 다음 프레임을 시작한다. 이 예시 다이어그램은 전역(global) 셔터 센서에 관한 것이다. 롤링(rolling) 셔터 센서는 프레임 차원에서 노출 간격과 리드아웃 간격이 중첩된다. 노출과 리드아웃을 열(row)별로 따로따로 제어하기 때문이다.

GMSL은 센서 측의 시리얼라이저가 이미지 센서로부터 받은 데이터를 직렬화하고, 이것을 고유의 프로토콜을 통해서 링크로 즉시 전송한다.

GigE Vision 카메라는 프로세서가 버퍼링을 하며, 대개의 경우에 이미지 센서로부터 전달받은 데이터를 처리한 다음에 이 비디오 데이터를 이더넷 프레임으로 정렬해서 네트워크로 전송한다.

링크 레이트(Link Rate)

링크 레이트는 링크를 통해 전송되는 데이터의 이론적 최대 속도로서, 서로 다른 데이터 링크 기술을 비교할 때 중요한 지표가 된다. GMSL2, GMSL3, GigE Vision 모두 고유한 고정된 링크 레이트를 사용한다.

GMSL2는 3Gbps 및 6Gbps의 데이터 레이트를 지원한다. GMSL3은 12Gbps의 데이터 레이트를 지원하며, 모든 GMSL3 디바이스는 GMSL2 프로토콜을 사용하는 GMSL2 디바이스와 역호환이 가능하다.

GigE Vision은 이더넷 표준을 따른다. GigE, 2.5 GigE, 5 GigE, 10 GigE Vision 카메라는 다양한 애플리케이션에 사용되는 것을 쉽게 볼 수 있다. 명칭에서 알 수 있듯이, 이들 표준은 각각 1Gbps부터 10Gbps에 이르는 링크 레이트를 지원한다. 최신 GigE Vision 카메라는 100Gbps의 링크 레이트로 100GigE를 지원하게 된다1 . GigE Vision은 모든 상위 속도의 프로토콜이 하위 속도 프로토콜과의 역호환을 지원한다.

링크 레이트는 비디오 해상도, 프레임 레이트, 지연시간과 밀접하게 연관되어 있지만, 단순히 링크 레이트만 가지고 두 기술을 직접적으로 비교하는 것은 바람직하지 않다.


유효 비디오 데이터 레이트

데이터 통신 분야에서 유효 데이터 레이트는 프로토콜 오버헤드를 제외한 데이터 레이트 성능을 말하는 것으로서, 이 개념은 비디오 데이터 통신에도 그대로 적용된다. 통상적으로 전송되는 유효 비디오 데이터의 양은 하나의 패킷 또는 프레임에서 픽셀 비트 값 x 픽셀 수로 구할 수 있다. 그림 6은 유효 비디오 데이터와 오버헤드의 관계를 보여준다.

Figure 6. Payload and overhead in a data frame/packet.
그림 6. 데이터 프레임/패킷에서 페이로드와 오버헤드

GMSL은 비디오 데이터를 패킷으로 전송한다. GMSL2와 GMSL3 디바이스는 고정된 패킷 크기를 사용하므로 유효 비디오 데이터 레이트 또한 정해져 있다. GMSL2 디바이스를 예로 들어 보자. 링크가 6Gbps로 설정됐다면 비디오 대역폭은 5.2Gbps를 넘지 않도록 사용할 것을 권장한다. 하지만 이 링크는 약간의 오버헤드와 센서의 MIPI 인터페이스로부터 블랭킹 시간도 포함하고 있기 때문에, 이 5.2Gbps는 초당 5.2Gbit의 비디오 데이터가 아니라 모든 입력 MIPI 데이터 레인들의 데이터 레이트를 합한 것으로 봐야 한다.

이더넷은 데이터를 프레임으로 전송한다. GigE Vision은 표준 프레임 크기를 사용하지 않으며, 효율을 높이고자 하는지(긴 프레임에 유리) 아니면 지연시간을 낮추고자 하는지(짧은 프레임에 유리)에 따라서 소프트웨어 솔루션 차원에서 절충이 가능하다. 이들 카메라의 경우, 오버헤드는 대체로 5%를 넘지 않는다. 더 높은 속도의 이더넷일수록 긴 프레임을 사용할 때의 위험 부담을 줄이고 더 우수한 유효 비디오 데이터 레이트를 달성할 수 있다.

두 기술 모두 버스트 방식으로 데이터를 전송한다. 그러므로 더 긴 간격(하나의 비디오 프레임 또는 그 이상)에서의 평균 데이터 레이트는 전송 시의 유효 비디오 데이터 레이트보다 낮을 수 있다. GMSL 카메라의 경우, 버스트 시간은 전적으로 이미지 센서로부터의 리드아웃 시간에 의해 좌우되며, 실제 애플리케이션에서 버스트 비율은 최대의 유효 비디오 데이터 레이트를 지원할 수 있도록 100%에 달할 수 있다. GigE Vision 카메라는 좀더 복잡하고 예상하기 어려운 네트워크 환경일 수 있는데, 그러한 경우에는 데이터 충돌을 피하기 위해 대체로 버스트 비율이 낮은 편이다. 그림 7은 GMSL과 GigE Vision의 데이터 트래픽을 예시한 것이다.

Figure 7. Data traffic from GMSL and GigE Vision network.
그림 7. GMSL 및 GigE Vision 네트워크의 데이터 트래픽

해상도와 프레임 레이트

해상도와 프레임 레이트는 비디오 카메라의 가장 중요한 두 가지 규격으로서, 갈수록 더 높은 링크 레이트를 필요로 하는 이유가 바로 이 때문이다. 이들 규격과 관련해서, 두 기술 모두 저마다의 장단점을 가지고 있다.

GMSL 디바이스는 프레임 버퍼링과 프로세싱을 제공하지 않는다. 해상도와 프레임 레이트 모두 센서 측의 이미지 센서와 ISP가 링크 대역폭 내에서 얼마나 지원할 수 있는가에 따라 달라지며, 대체로 해상도, 프레임 레이트, 픽셀 비트 깊이 사이에서 절충이 이루어진다.

GigE Vision은 좀더 복잡하다. 많은 경우에 사용 가능한 링크 레이트는 GMSL보다 낮지만, 추가적인 버퍼링과 압축을 통해서 더 높은 해상도, 더 높은 프레임 레이트, 혹은 둘 다를 지원할 수 있다. 대신 그만큼 지연시간과 전력 소모가 늘어나고, 카메라 시스템의 양측에 고가의 부품들을 필요로 한다. 드물게는 좀더 낮은 프레임 레이트로 미가공 이미지 데이터를 전송하기도 한다.

지연시간

지연시간은 비디오 카메라의 또 다른 중요한 규격인데, 실시간으로 데이터를 처리하고 의사결정을 하는 애플리케이션에서는 특히 그렇다.

GMSL 카메라 시스템은 시리얼라이저 입력/센서 출력부터 디시리얼라이저 출력/수신 SoC 입력까지의 지연시간이 낮고 확정적이다.

GigE Vision 카메라는 내부 프로세싱과 좀더 복잡한 네트워크 트래픽 때문에 대체로 지연시간이 더 높고 비확정적이다. 그렇다고 해서 시스템 차원의 지연시간이 꼭 더 긴 것은 아닌데, 카메라 측의 프로세싱이 시스템 이미지 파이프라인에 포함되고 좀더 전용적이고 효율적일 때는 특히 그렇다.


그 밖의 특징들

전송 거리

GMSL 시리얼라이저 및 디시리얼라이저는 승용 차량에서 동축 케이블을 사용해서 최대 15미터 거리까지 데이터를 전송하도록 설계된다. 하지만 카메라 하드웨어 시스템이 GMSL 채널 규격을 충족하기만 한다면 전송 거리가 15미터로 제한되지는 않는다.

GigE Vision은 이더넷 프로토콜을 사용해서 구리 케이블로 최대 100미터까지 데이터를 전송할 수 있으며, 광섬유를 사용할 경우 더 멀리까지도 가능하다. 다만 PoE(Power over Ethernet) 같은 몇몇 기능들을 이용하지 못하게 될 수도 있다.


PoC와 PoE/PoDL

두 기술 모두 단일 케이블을 통해 전원과 데이터를 전송할 수 있다. GMSL은 PoC(Power over Coax)를 사용하고, GigE Vision은 4쌍 이더넷에 PoE를, 단일 쌍 이더넷(SPE)에 PoDL(Power over Data Line)을 사용한다. 대부분의 GigE Vision 카메라는 PoE에 전통적인 4쌍 와이어를 사용한다.

PoC는 간단하며, 동축 구성을 사용하는 카메라 애플리케이션에 거의 기본으로 사용된다. 이 구성은 링크 상에서 단일 와이어를 통해 전원과 데이터를 제공하고, PoC 회로에는 단지 몇 개의 수동 부품만을 필요로 한다.

1Gbps 또는 그 이상의 데이터 레이트를 지원하는 PoE 회로를 위해서는 카메라 측과 호스트(또는 스위치) 측 모두에 능동 부품들을 사용한 전용 회로가 필요하다. 이 때문에 PoE 기능을 구현하는 데 더 많은 비용이 들고, 경우에 따라서는 이 기능을 사용하기가 여의치 않을 수 있다. PoE를 지원하는 GigE Vision 카메라는 외부 로컬 전원 옵션을 포함하는 것이 일반적이다.


주변장치 제어와 시스템 연결

GMSL은 전용 카메라 또는 디스플레이 링크로서, 다양한 주변장치를 지원하도록 설계되지 않았다. 통상적인 GMSL 카메라 애플리케이션에서, 이 링크는 온도 센서, 조도 센서, 관성 측정 장치(inertial measurement unit, IMU), LED 컨트롤러 같은 카메라 주변장치들과만 통신하기 위해 링크를 통해 제어 신호를 전송한다(UART, I2C, SPI). GMSL을 카메라 인터페이스로 사용하는 좀더 큰 규모의 시스템은 다른 디바이스들과의 통신을 위해 CAN이나 이더넷 같은 더 낮은 속도의 다른 인터페이스들을 포함할 수 있다.

GigE Vision 카메라는 내부 프로세서를 사용해서 카메라 주변장치 제어를 처리하는 것이 일반적이다. 산업용 애플리케이션에 널리 사용되는 커넥티비티 솔루션으로서, 산업용 이더넷은 다양한 기계 및 장비를 지원하기 위한 몇 가지 표준 프로토콜들을 포함하며, GigE Vision 카메라는 소프트웨어와 하드웨어 인터페이스 모두 네트워크에 곧바로 연결할 수 있다.


카메라 트리거링과 타임스탬핑

GMSL 링크는 다양한 카메라 트리거링/동기화 구성을 지원하기 위해서 순방향 및 역방향 채널 모두에 수 마이크로초 대로 낮은 지연 특성의 GPIO 및 I2C 터널링이 가능하다. GMSL 카메라 시스템에서 트리거 신호의 소스는 디시리얼라이저 측의 SoC나 시리얼라이저 측의 이미지 센서일 수 있다.

GigE Vision 카메라는 전용 핀/포트나 이더넷 트리거링/동기화 패킷을 통해서 하드웨어와 소프트웨어 모두에서 트리거링이 가능하다. 통상적인 애플리케이션에서는 다른 카메라들이나 또는 카메라가 아닌 다른 디바이스들과 즉각적이고도 정확한 동기화를 위해서 하드웨어 트리거를 사용하는 게 표준 방식이다. GigE Vision 카메라에 소프트웨어 트리거링을 사용할 때 가장 큰 문제는 네트워크 지연이다. 동기화 정확도를 향상하기 위한 프로토콜들이 나와 있기는 하지만, 충분히 정확하지 않거나(네트워크 시간 프로토콜(network time protocol, NTP)은 밀리초 대로 동기화2) 비용적으로 경제적이지 않을 수 있다(정밀 시간 프로토콜(precision time protocol, PTP)은 마이크로초 대로 동기화하지만 3호환 가능한 하드웨어를 필요로 함).

이더넷 네트워크 상에 동기화 프로토콜을 사용하면, 동일 네트워크 상의 GigE Vision 카메라들을 포함한 모든 디바이스가 동일한 클럭 도메인으로 타임스탬프를 제공할 수 있다.

GMSL은 타임스탬핑 기능이 없다. 일부 이미지 센서는 MIPI 임베디드 헤더를 통해서 타임스탬프를 제공할 수 있지만, 일반적으로 이들 센서는 보다 상위 레벨 시스템에서 다른 디바이스들과 연결되지는 않는다. 어떤 시스템 아키텍처에서는 GMSL 디시리얼라이저가 중앙화된 클럭을 사용하기 위해 PTP 네트워크 상의 SoC와 연결될 수도 있다. 이 기능이 필요할 경우, AD-GMSL2ETH-SL을 사용할 수 있다.


맺음말

표 1은 두 기술의 주요 특징을 비교한 것이다. GMSL은 기존 GigE Vision 솔루션을 대체할 수 있는 강력한 대안을 제시한다. GigE Vision 카메라와 비교할 때, GMSL 카메라는 더 낮은 비용, 더 낮은 전력 소모, 보다 단순한 시스템 아키텍처, 더 소형화한 시스템 풋프린트에서 같거나 더 나은 링크 레이트와 기능들을 제공한다. 뿐만 아니라 GMSL은 원래부터 차량용 애플리케이션에 사용하도록 설계된 기술로서, 지난 수십 년간 차량용 엔지니어들로부터 가혹한 환경에서 검증되어 왔다. 이는 신뢰성과 기능적 안전을 중요하게 요구하는 시스템을 개발하는 엔지니어들과 개발자들에게 확실한 솔루션을 제공할 것이다.

표 1. GMSL과 GigE Vision의 주요 특징 비교
  GMSL GigE Vision
토폴로지 포인트-투-포인트 포인트-투-포인트 또는 네트워크 스위치 경유
데이터 링크 레이트(Gbps) 3/6/12, 전용 1/2.5/5/10, 공유
PHY로부터 센서 인터페이스 있음, MIPI D-PHY/C-PHY 없음
제어 신호 실시간 네트워크가 여유가 있을 때
비디오 압축 기능 없음 있음
비디오 지연시간 낮고 확정적 높음(비디오 프로세싱), 비확정적(네트워크 여건에 따라)
카메라 트리거 링크를 통해 양방향, 마이크로초 대 지연 트리거 핀(추가 하드웨어), 이더넷 패킷(비확정적 지연)
크기 5mm × 5mm (GMSL2 시리얼라이저)4 5mm x 5mm 이상(GigE PHY)5, 프로세서 별도
전력 소모 260mW (GMSL2 시리얼라이저)4 300mW 이상 (GigE PHY)6, 프로세서 별도
플러그 앤 플레이 지원하지 않음, MIPI 드라이버 필요 지원함
케이블을 통한 전원 간단함, 수동 네트워크 복잡함, 능동 부품들 필요
표준 네트워크 동기화 프로토콜 없음 있음
전송 거리 최대 15미터 (GMSL2, 6Gbps)

*구식 105C LEONI Dacar 302 동축 케이블(-1.1dB/m) 사용 가정
최대 100미터

GMSL을 사용하기 전에, 아나로그디바이스의 GMSL 기술 페이지에 방문하면제품 정보, 하드웨어 설계 가이드, 사용자 가이드를 확인할 수 있다. 관련 레퍼런스 디자인과 드라이버 지원 정보는 ADI의 GMSL GitHub 사이트에서 확인할 수 있다.


참고문헌

1Understanding the Benefits of 10, 25, 50, and 100GigE Vision.” Emergent Vision Technologies Inc., 2023.

2 David L. Mills. “Internet Time Synchronization: The Network Time Protocol.” IEEE Transactions on Communications, Vol. 39, Issue. 10, October 1991.

3IEEE Standard for a Precision Clock Synchronization Protocol for Networked Measurement and Control Systems.” IEEE, July 2008.

4 MAX96717. Analog Devices, May 2023.

5Single Port Gigabit Ethernet PHY.” MaxLinear, February 2023.

6 ADIN1300. Analog Devices, Inc., October 2019.


저자 소개

카이난 왕(Kainan Wang)은 매사추세츠주 윌밍턴 소재 아나로그디바이스(Analog Devices) ACE(Automotive Cabin Experience) 그룹의 시스템 애플리케이션 엔지니어이다. 매사추세츠주 보스턴에 위치한 노스웨스턴 대학에서 전기공학 석사학위를 취득하고 2016년에 ADI에 입사했다. 2D/3D 이미징 솔루션과 관련해서 하드웨어 개발과 시스템 통합에서부터 애플리케이션 개발에 이르기까지 전반적인 업무를 두루 맡아 왔다. 최근에는 ADI의 자동차 캐빈 기술을 자동차 외의 다른 분야들로 확장하는 임무를 맡고 있다.