AR(증강 현실)은 VR이나 기존의 실시간 3D 애플리케이션과 비교했을 때 새로운 디자인 문제를 제기합니다. 정의에 따르면 증강 현실 앱은 사용자 주변의 현실 세계에 콘텐츠를 오버레이합니다. 오브젝트를 실제 월드에 배치하려면 먼저 오브젝트를 배치할 위치를 결정해야 합니다. 예를 들어 실제 벽에 가상 페인팅을 배치할 수 있습니다. 화분에 심어진 가상 식물을 실제 테이블이나 바닥에 배치할 수도 있습니다. AR 앱은 평면 표면의 위치와 오브젝트, 사람, 얼굴의 감지 등 월드에 대한 정보를 사용자의 기기에서 수신하며, 이 정보를 사용하여 사용자에게 적합한 경험을 구현하는 방법을 결정해야 합니다.
Unity에서 일반적인__ AR__ 씬을 열면 씬(Scene)이나 계층 구조(Hierarchy) 뷰에 3D 오브젝트가 많지 않습니다. 대신 씬 내 대부분의 게임 오브젝트는 앱의 설정과 로직을 정의합니다. 3D 콘텐츠는 일반적으로 AR 관련 이벤트에 대한 응답으로 런타임 시 씬에 추가되는 프리팹으로 생성됩니다.

Unity 에디터의 일반적인 AR 씬
기본 AR 씬에는 다음과 같은 게임 오브젝트와 컴포넌트가 포함됩니다.
XR Interaction Toolkit이 설치되어 있는 경우, AR 애플리케이션용__ XR__XR은 VR(가상 현실), AR(증강 현실)과 MR(혼합 현실) 애플리케이션을 모두 포함하는 포괄적인 용어입니다. 이러한 형태의 인터랙티브 애플리케이션을 지원하는 기기를 XR 기기라고 합니다. 자세한 정보
See in Glossary Origin 옵션이 XR Origin (AR)로 변경되어, 휴대용 컨트롤러 및 툴킷 컴포넌트를 표현하기 위한 게임 오브젝트를 추가함으로써 씬의 오브젝트와 상호 작용할 수 있습니다.
팁:
이러한 세션 게임 오브젝트 외에도, 애플리케이션에서 사용하는 각 AR 기능 유형에 해당하는 AR manager 컴포넌트가 필요합니다.
XR 씬을 설정하는 방법에 대한 개요는 XR 씬 설정을 참조하십시오.
AR 애플리케이션 제작에 대한 자세한 내용은 씬 설정을 비롯한 AR Foundation 패키지 기술 자료를 참조하십시오.
Unity에서 AR 앱을 빌드하려면 지원하려는 기기에 대한 XR 공급자 플러그인과 함께 AR Foundation 패키지를 설치할 수 있습니다. Apple Vision Pro 기기용 AR/MR 앱을 개발하려면 PolySpatial visionOS 패키지도 필요합니다. Unity는 AR 경험을 더 쉽고 빠르게 개발할 수 있도록 Unity Mars 및 XR Interaction Toolkit을 비롯한 추가 패키지를 제공합니다.
Unity에서 지원하는 AR 공급자 플러그인은 다음과 같습니다.
XR 플러그인 관리 시스템을 사용하여 하나 이상의 플러그인을 추가하고 활성화합니다. 지침은 XR 프로젝트 설정을 참조하십시오.
참고: 플랫폼 또는 기기에 따라 OpenXR과 함께 추가 패키지를 설치해야 할 수 있습니다. 예를 들어 HoloLens 2용 AR 앱을 빌드하려면 Microsoft의 Mixed Reality OpenXR 플러그인을 설치해야 합니다.
AR Foundation 패키지는 Unity에서 AR 개발을 지원합니다.
AR Foundation을 사용하면 Unity로 멀티플랫폼 AR 앱을 제작할 수 있습니다. AR Foundation 프로젝트에서는 씬에 해당 관리자 컴포넌트를 추가하여 활성화할 AR 기능을 선택합니다. AR 기기에서 앱을 빌드하고 실행할 때 AR Foundation은 플랫폼의 네이티브 AR SDK를 사용하여 이러한 기능을 활성화하므로, 한 번만 제작한 후 세계 최고 수준의 AR 플랫폼에 배포할 수 있습니다.
기기는 가능한 모든 AR 기능을 지원하지 않고도 AR을 지원할 수 있습니다. 사용 가능한 기능은 기기 플랫폼과 특정 기기의 성능 모두에 따라 다릅니다. 예를 들어 Google의 Android용 AR 플랫폼인 ARCore는 현재 바디 추적을 지원하지 않으므로 Android 플랫폼용 앱을 빌드할 때 바디 추적을 사용할 수 없습니다. 동일한 플랫폼에서도 기능은 기기에 따라 다를 수 있습니다. 예를 들어 특정 기기 모델은 월드 방향 카메라를 통해 AR을 지원할 수 있지만 사용자 방향 카메라는 지원하지 않습니다.
AR Foundation에 대한 자세한 내용은 AR Foundation 패키지 기술 자료를 참조하십시오.
Apple Vision Pro 기기용 증강 현실 및 혼합 현실 개발은 visionOS 플랫폼에서 Unity PolySpatial 아키텍처를 구현하는 일련의 패키지를 활용합니다.
PolySpatial 아키텍처는 Unity 게임 또는 앱을 시뮬레이션 컨트롤러와 프레젠테이션 뷰라는 두 가지 논리적 항목으로 분할합니다. 시뮬레이션 컨트롤러는 MonoBehaviour 및 기타 스크립팅, UI 동작, 에셋 관리, 물리 등과 같은 모든 앱별 로직을 구동합니다. 거의 모든 게임의 동작이 시뮬레이션의 일부입니다. 프레젠테이션 뷰는 입력과 출력을 모두 처리하며, 여기에는 디스플레이에 대한 렌더링과 오디오 같은 기타 출력 양식이 포함됩니다. 뷰는 각 프레임을 처리하기 위해 핀치 제스처와 머리 위치를 비롯하여 운영체제로부터 수신된 입력을 시뮬레이션으로 전송합니다. 시뮬레이션 단계마다 뷰는 화면에 픽셀을 렌더링하고 시스템에 오디오 버퍼를 제출하여 디스플레이를 업데이트합니다.
visionOS 플랫폼에서는 시뮬레이션 부분이 Unity 플레이어에서 실행되고, 프레젠테이션 뷰는 Apple의 RealityKit에서 렌더링됩니다. 시뮬레이션에 표시되는 모든 오브젝트의 경우, 해당하는 오브젝트가 RealityKit 씬 그래프에 있습니다.
참고: PolySpatial은 Apple Vision Pro에서 증강 현실과 혼합 현실에만 사용됩니다. 가상 현실과 창 모드 앱은 렌더링도 제어하는 Unity 플레이어에서 실행됩니다(Apple Metal 그래픽스 API 사용).
Unity Mars는 AR 애플리케이션 제작을 위해 특별히 제작된 저작 툴과 더 나은 워크플로를 제공합니다.
Unity Mars에는 호환 가능한 라이선스가 필요합니다. Unity Pro, Unity Enterprise 및 Unity Industrial Collection 플랜에는 Mars가 포함됩니다. 다른 플랜이 있는 경우 Unity Mars 라이선스도 별도로 받을 수 있습니다. 자세한 내용은 Unity Mars를 참조하십시오.
Unity XR Interaction Toolkit은 AR 및__ VR__가상 현실입니다. 자세한 정보
See in Glossary 인터랙션을 모두 빌드할 수 있는 툴을 제공합니다. XR Interaction Toolkit은 다음과 같은 AR 기능을 제공합니다.