Search
🔵

deer.a3.2.2_2. title: Jetson 과 같은 엣지 디바이스에서는 모델 로드 속도가 매우 느리다. 딥러닝 모델의 테스트 하네스(‣) 구성이 어렵다. unittest 모듈을 사용하고 모킹(‣)하라.

🚀 prev note
♻️ prev note
🚀 next note
17 more properties
엣지 디바이스에서 딥러닝 모델을 테스팅하면 문제되는 부분들이 있다.
첫 번째 문제는, 한 번 메모리에 올린 후 한 개의 테스트밖에 하지 못한다는 점이다. 두 번째 문제는 딥러닝 모델을 메모리에 올리는 데 시간이 오래 걸려서, 테스팅이 매우 느리다는 점이다. 실제로 Jetson Xavier AGX 에서 MobileNet v2 모델을 tf.load_model API 를 통해 메모리에 올리는데 5분이라는 시간이 걸린다! 케이스 하나를 테스트하기 위해 5분이라고 상상해 보라.
첫 번째 문제는 unittest 모듈의 TestCase 클래스를 사용하는 순간 깔끔하게 해결된다(from1). 두 번째 문제는 장기저장장치-메모리 사이의 병목에 의해 일어나는 문제로(참고1:비슷한 문제), 목(Mock)을 통해 간접적으로 해결될 수 있다. 딥러닝 모델을 모킹(mocking) 할 수 있으면 이 문제도 해결된다.
from
1.
supplementary
참고