성능 및 최적화 - AWS Storage Gateway

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

성능 및 최적화

이 섹션에서는 File Gateway 성능을 최적화하기 위한 지침과 모범 사례를 설명합니다.

S3 File GatewayFSx에 대한 기본 성능 지침

이 단원에서는 S3 File Gateway VM용 하드웨어 프로비저닝에 대한 지침을 확인할 수 있습니다. 표에 나열된 인스턴스 구성은 예제이며 참조용으로 제공됩니다.

성능을 최적화하려면 캐시 디스크 크기를 활성 작업 세트의 크기로 변경해야 합니다. 캐시에 여러 로컬 디스크를 사용하면 데이터에 대한 액세스를 병렬화하여 성능이 확장되고 IOPS가 향상됩니다.

참고

휘발성 스토리지는 사용하지 않는 것이 좋습니다. 휘발성 스토리지 사용에 대한 자세한 내용은 EC2 게이트웨이에서 임시 스토리지 사용 단원을 참조하십시오.

Amazon EC2 인스턴스의 경우 S3 버킷에 5백만 개 이상의 객체가 있고 범용 SSD 볼륨을 사용하는 경우 시작 중에 게이트웨이의 허용 가능한 성능을 위해 최소 루트 EBS 볼륨 350GiB가 필요합니다. 볼륨 크기 증가 방법에 대한 자세한 내용은 탄력적 볼륨을 사용하여 EBS 볼륨 수정(콘솔)을 참조하십시오.

파일 게이트웨이에 연결하는 파일 공유 개별 디렉터리에 대해 제안된 크기 제한은 디렉터리당 10,000개의 파일입니다. 10,000개 이상의 파일이 있는 디렉터리에서 File Gateway를 사용할 수 있지만 성능이 영향을 받을 수 있습니다.

다음 표에서 캐시 적중 읽기 작업은 캐시에서 제공되는 파일 공유에서 읽습니다. 캐시 누락 읽기 작업은 Amazon S3에서 제공되는 파일 공유에서 읽는 작업입니다.

다음 표에는 S3 File Gateway 구성의 예가 나와 있습니다.

Linux 클라이언트의 S3 File Gateway 성능

구성의 예 프로토콜 쓰기 처리량(파일 크기 1GB) 캐시 적중 읽기 처리량 캐시 누락 읽기 처리량

루트 디스크: 80GB, io1 SSD, 4,000 IOPS

캐시 디스크: 512GiB 캐시, io1, 1,500 프로비저닝된 IOPS

최소 네트워크 성능: 10Gbps

CPU: 16 vCPU | RAM: 32GB

Linux에 권장되는 NFS 프로토콜

NFSv3 - 스레드 1개 110MiB/초(0.92Gbps) 590MiB/초(4.9Gbps) 310MiB/초(2.6Gbps)
NFSv3 - 스레드 8개 160MiB/초(1.3Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)
NFSv4 - 스레드 1개 130MiB/sec(1.1Gbps) 590MiB/초(4.9Gbps) 295MiB/초(2.5Gbps)
NFSv4 - 스레드 8개 160MiB/초(1.3Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)
SMBV3 - 스레드 1개 115MiB/초(1.0Gbps) 325MiB/초(2.7Gbps) 255MiB/초(2.1Gbps)
SMBV3 - 스레드 8개 190MiB/초(1.6Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)

Storage Gateway 하드웨어 어플라이언스

최소 네트워크 성능: 10Gbps

NFSv3 - 스레드 1개 265MiB/초(2.2Gbps) 590MiB/초(4.9Gbps) 310MiB/초(2.6Gbps)
NFSv3 - 스레드 8개 385MiB/초(3.1Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)
NFSv4 - 스레드 1개 310MiB/초(2.6Gbps) 590MiB/초(4.9Gbps) 295MiB/초(2.5Gbps)
NFSv4 - 스레드 8개 385MiB/초(3.1Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)
SMBV3 - 스레드 1개 275MiB/초(2.4Gbps) 325MiB/초(2.7Gbps) 255MiB/초(2.1Gbps)
SMBV3 - 스레드 8개 455MiB/초(3.8Gbps) 590MiB/초(4.9Gbps) 335MiB/초(2.8Gbps)

루트 디스크: 80GB, io1 SSD, 4,000 IOPS

캐시 디스크: 4 x 2TB NVME 캐시 디스크

최소 네트워크 성능: 10Gbps

CPU: 32 vCPU | RAM: 244GB

Linux에 권장되는 NFS 프로토콜

NFSv3 - 스레드 1개 300MiB/초(2.5Gbps) 590MiB/초(4.9Gbps) 325MiB/초(2.7Gbps)
NFSv3 - 스레드 8개 585MiB/초(4.9Gbps) 590MiB/초(4.9Gbps) 580MiB/초(4.8Gbps)
NFSv4 - 스레드 1개 355MiB/초(3.0Gbps) 590MiB/초(4.9Gbps) 340MiB/초(2.9Gbps)
NFSv4 - 스레드 8개 575MiB/초(4.8Gbps) 590MiB/초(4.9Gbps) 575MiB/초(4.8Gbps)
SMBV3 - 스레드 1개 230MiB/초(1.9Gbps) 325MiB/초(2.7Gbps) 245MiB/초(2.0Gbps)
SMBV3 - 스레드 8개 585MiB/초(4.9Gbps) 590MiB/초(4.9Gbps) 580MiB/초(4.8Gbps)

Windows 클라이언트의 파일 게이트웨이 성능

구성의 예 프로토콜 쓰기 처리량(파일 크기 1GB) 캐시 적중 읽기 처리량 캐시 누락 읽기 처리량

루트 디스크: 80GB, io1 SSD, 4,000 IOPS

캐시 디스크: 512GiB 캐시, io1, 1,500 프로비저닝된 IOPS

최소 네트워크 성능: 10Gbps

CPU: 16 vCPU | RAM: 32GB

Windows에 권장되는 SMB 프로토콜

SMBV3 - 스레드 1개 150MiB/초(1.3Gbps) 180MiB/초(1.5Gbps) 20MiB/초(0.2Gbps)
SMBV3 - 스레드 8개 190MiB/초(1.6Gbps) 335MiB/초(2.8Gbps) 195MiB/초(1.6Gbps)
NFSv3 - 스레드 1개 95MiB/초(0.8Gbps) 130MiB/초(1.1Gbps) 20MiB/초(0.2Gbps)
NFSv3 - 스레드 8개 190MiB/초(1.6Gbps) 330MiB/초(2.8Gbps) 190MiB/초(1.6Gbps)

Storage Gateway 하드웨어 어플라이언스

최소 네트워크 성능: 10Gbps

SMBV3 - 스레드 1개 230MiB/초(1.9Gbps) 255MiB/초(2.1Gbps) 20MiB/초(0.2Gbps)
SMBV3 - 스레드 8개 835MiB/초(7.0Gbps) 475MiB/초(4.0Gbps) 195MiB/초(1.6Gbps)
NFSv3 - 스레드 1개 135MiB/초(1.1Gbps) 185MiB/sec(1.6Gbps) 20MiB/초(0.2Gbps)
NFSv3 - 스레드 8개 545MiB/초(4.6Gbps) 470MiB/초(4.0Gbps) 190MiB/초(1.6Gbps)

루트 디스크: 80GB, io1 SSD, 4,000 IOPS

캐시 디스크: 4 x 2TB NVME 캐시 디스크

최소 네트워크 성능: 10Gbps

CPU: 32 vCPU | RAM: 244GB

Windows에 권장되는 SMB 프로토콜

SMBV3 - 스레드 1개 230MiB/초(1.9Gbps) 265MiB/초(2.2Gbps) 30MiB/초(0.3Gbps)
SMBV3 - 스레드 8개 835MiB/초(7.0Gbps) 780MiB/초(6.5Gbps) 250MiB/초(2.1Gbps)
NFSv3 - 스레드 1개 135MiB/초(1.1. Gbps) 220MiB/초(1.8Gbps) 30MiB/초(0.3Gbps)
NFSv3 - 스레드 8개 545MiB/초(4.6Gbps) 570MiB/초(4.8Gbps) 240MiB/초(2.0Gbps)
참고

성능은 호스트 플랫폼 구성 및 네트워크 대역폭에 따라 달라질 수 있습니다. 쓰기 처리량 성능은 파일 크기에 따라 감소하며 작은 파일(32MiB 미만)에 대해 달성 가능한 가장 높은 처리량은 초당 16개 파일입니다.

여러 파일 공유가 있는 게이트웨이에 대한 성능 지침

Amazon S3 File Gateway는 단일 Storage Gateway 어플라이언스에 최대 50개의 파일 공유 연결을 지원합니다. 게이트웨이당 여러 파일 공유를 추가하면 게이트웨이와 가상 하드웨어 리소스를 더 적게 관리하면서 더 많은 사용자와 워크로드를 지원할 수 있습니다. 게이트웨이에서 관리하는 파일 공유 수는 다른 요인 외에도 해당 게이트웨이의 성능에 영향을 미칠 수 있습니다. 이 섹션에서는 연결된 파일 공유 수에 따라 게이트웨이 성능이 어떻게 변경될 것으로 예상되는지 설명하고 여러 공유를 관리하는 게이트웨이의 성능을 최적화하기 위해 가상 하드웨어 구성을 권장합니다.

일반적으로 단일 Storage Gateway에서 관리하는 파일 공유 수를 늘리면 다음과 같은 결과가 발생할 수 있습니다.

  • 게이트웨이를 다시 시작하는 데 필요한 시간이 늘어납니다.

  • vCPU 및 RAM과 같은 가상 하드웨어 리소스의 사용률 증가.

  • 가상 하드웨어 리소스가 포화되면 데이터 및 메타데이터 작업 성능이 저하됩니다.

다음 표에는 여러 파일 공유를 관리하는 게이트웨이에 권장되는 가상 하드웨어 구성이 나열되어 있습니다.

게이트웨이당 파일 공유 권장 게이트웨이 용량 설정 권장 vCPU 코어 권장 RAM 권장 디스크 크기

1-10

작은

4(EC2 인스턴스 유형 m4.xlarge 이상)

16GiB

80GiB

10~20

중간

8(EC2 인스턴스 유형 m4.2xlarge 이상)

32GiB

160GiB

20+

대형

16(EC2 인스턴스 유형 m4.4xlarge 이상)

64GiB

240GiB

위에서 권장하는 가상 하드웨어 구성 외에도 여러 파일 공유를 관리하는 Storage Gateway 어플라이언스를 구성하고 유지 관리하기 위한 다음 모범 사례를 따르는 것이 좋습니다.

  • 파일 공유 수와 게이트웨이의 가상 하드웨어에 대한 수요 간의 관계가 반드시 선형은 아닙니다. 일부 파일 공유는 처리량을 더 많이 생성하여 다른 파일 공유보다 하드웨어 수요를 더 많이 생성할 수 있습니다. 위 표의 권장 사항은 최대 하드웨어 용량과 다양한 파일 공유 처리량 수준을 기반으로 합니다.

  • 단일 게이트웨이에 여러 파일 공유를 추가하면 성능이 저하되는 경우 가장 활성이 높은 파일 공유를 다른 게이트웨이로 이동하는 것이 좋습니다. 특히 파일 공유가 처리량이 very-high-throughput 애플리케이션에 사용되는 경우 해당 파일 공유에 대해 별도의 게이트웨이를 생성하는 것이 좋습니다.

  • 처리량이 많은 여러 애플리케이션에 대해 하나의 게이트웨이를 구성하고 처리량이 적은 여러 애플리케이션에 대해 다른 게이트웨이를 구성하는 것은 권장하지 않습니다. 대신 고처리량 및 저처리량 파일 공유를 게이트웨이에 균등하게 분산하여 하드웨어 포화도의 균형을 맞추십시오. 파일 공유 처리량을 측정하려면 ReadBytesWriteBytes 지표를 사용합니다. 자세한 내용은 파일 공유 지표 이해를 참조하세요.