Mind-blowing, magnified portraits of insects ,  Posted Oct 2017




연사는 말합니다.


"때때로 나는 아이의 시선이 있었으면 좋겠습니다. 제가 작은 소년이였을 때 처럼 세상을 바라볼 수 있기를 바랍니다. 나이가 들 수록 익숙함 때문에 호기심은 점차 사라지거나 둔화될 위험성이 있다고 생각합니다. 저는 Visual Creator로서, 익숙한 것을 새롭고 매력적인 방식으로 제시하는 것이 도전중의 하나 입니다."



5mm의 곤충을 사진으로 촬영하기 위해 10micros씩(머리카락의 1/7) 움직일 수 있는 레일도 설치하고 조명시설과 특별한 카메라를 이용해서 곤충마다 8~10000장의 개별 사진을 촬영하여 하나의 거대한(!,  3m...) 사진으로 만듭니다.








아이들에게 예술수업, 생물학 수업에 사용할 수 있도록 도움을 줍니다.



훌륭하네요... ^^




< TED 강연 내용 >



Posted by 이미지쿡

(링크) High-quality video view interpolation using a 

layered representation (2004- Microsoft Research)



무려 1484회나 인용된 논문입니다.(2004년 발표)


우선 동영상을 보시면 bullet time 영상을 8개의 카메라로 만들어 냅니다. 14년전 기술인데 현재까지 이렇게 훌륭한 기술이 상용화가 안되었다는 것이 이상할 정도입니다. 




유튜브에 보면 "Interactive "Bullet-Time" 3D Video"라고 소개 되어 있며,

"image-based rendering" 알고리즘을 적용합니다.



이 기술이 왜 연구 하게 되었는지 이렇게 설명합니다.

(비전공자가 발로 번역한것이라 내용이 이상하더라도 이해 바랍니다. 상세한 내용은 원문 참조 바랍니다.)


   " 스테레오 이미지 기반 렌더링의 모든 발전에도 불구하고 동적 장면에 대한 고품질의 고해상도 뷰를 렌더링하는 것은 여전히 매우 어렵습니다. 문제를 해결하기 위해 고해상도 카메라 (1024 × 768) 새로운 색상 세그멘테이션 기반 스테레오 알고리즘을 사용하여 모든 카메라보기에서 고화질의 사진 일치를 생성합니다


심도 불연속 근처의 영역에 대한 매트는 자동으로 추출되어 합성 중에 아티팩트를 줄입니다. 마지막으로, 대화 비율로 온라인 렌더링에 새로운 시간적 2 계층 표현이 사용됩니다. 입력 비디오가 오프라인으로 처리되면 우리의 실시간 렌더링 시스템은 언제든지 중간 뷰를 대화식으로 합성 있습니다.


대화식 "(Bullet Time)총알 시간" 기법은  동안 TV 광고 장편 영화 시청자는 "정지 프레임"효과를 사용하여 시간을 멈추고 카메라 시점을 변경하는 환상을 보게되었습니다. 가장 초기의 광고는 Dayton Taylor 필름 기반 TimetrackR 시스템2 사용하여 제작되었습니다. 시스템은 고정 시간 슬라이스를 통해 움직이는듯한 환상을주기 위해 레일을 따라 배열 여러 스틸 카메라를 활용합니다.


1http://www.3dvsystems.com/products/zcam.html

2http://www.timetrack.com/


처음 등장했을 , 효과는 신선하고 화려 보였습니다. 그리고 그것은 많은 프로덕션에서 에뮬레이트되었습니다. 가장 유명한 매트릭스는 매트릭스에서 수있는 "총알 타임"효과 것입니다. 불행히도, 효과는 일반적으로 일회성, 사전 계획된 사건입니다. 관측점 궤도는 미리 계획되어 있으며 원하는 보간 뷰를 생성하기 위해 많은 시간이 소비됩니다.

Digital Air MoviaR 같은 최신 시스템은 비디오 카메라 배열을 기반으로하지만 소프트웨어보기 보간을 피하기 위해 많은 카메라가 필요합니다.


대조적으로, 우리의 접근 방식은 훨씬 유연합니다. 우선, 일단 모든 입력 비디오가 처리되면, 보기는 상호 작용합니다.


사용자는 시간을 조작 (정지, 감속 또는 역전)하고 원하는 대로 시점을 변경하여 동적 장면을 있습니다. 시공간을 통해 다른 궤도를 촬영할 있기 때문에 가지 시청 경험이 동일 필요는 없습니다. 둘째, 고품질의 3D 스테레오 데이터를 사용할 있기 때문에 객체 조작 (삽입 또는 삭제) 쉽습니다.


우리 시스템의 특징. 현재 시스템은 비디오를 획득하고 오프라인으로 형상 정보를 계산 다음 실시간으로 렌더링 합니다. 우리가 생각한 응용 프로그램에는 발레 무술과 같은 활동을 위한 동적 이벤트 교육용 비디오의 고품질 보관이 포함되어 있기 때문에 방법을 선택했습니다. 우리의 가장 중요한 관심사는 렌더링 품질이며, 현재의 스테레오 알고리즘은 매우 효과적이지만 전체 시스템이 실시간으로 작동 만큼 빠르지 않습니다. 우리 시스템은 몰입 원격 회의 (:  blue-c [Gross et al 2003]) 또는 실시간 (라이브) 방송 3D TV 사용하기 위한 것이 아닙니다.


우리는 현재 한쪽 끝에서 다른 끝까지 30도에 걸쳐 1D 아크를 따라 배치 8 개의 카메라를 사용합니다. 우리는 시스템을 2D 카메라 배열로 확장하고 결국 360 ° 범위로 확장 계획입니다. 이것이 사소한 확장은 아니지만 Unstructured Lumigraph [Buehler et al. 2001] 이를 성취하기 위한 올바른 틀을 제공한다. 우리 연구의 주된 기여는 Unstructured Lumigraph 사용 대강 위임된 보다 훨씬 나은 결과를 만들어내는 깊이 있는 이미지 표현입니다.



아래 처럼 허접(?)한 구조임에도 불구하고 멋진 영상을 만들어 내었다는 것은...

아마도 전/후작업을 어마어마 하게 많이 했을 것이라 생각됩니다. (얼마나? 글쎄요.. 1달이상???)



< 문헌에 설명된 내용은 아래와 같습니다. >


8 개의 카메라가 수평 호를 따라 배치 비디오 캡처 시스템의 구성을 보여줍니다.

우리는 고해상도 (1024 × 768) PtGrey 컬러 카메라를 사용하여 8mm 렌즈로 15fps 비디오를 캡처하여 30 ° 수평 시야를 만듭니다. 모든 입력 비디오의 실시간 저장을 처리하기 위해 Pt-Grey에게 개의 집중 장치를 구축하도록 의뢰했습니다. 집중 장치는 4 개의 카메라를 동기화하고 4 개의 압축 비디오 스트림을 광섬유 케이블을 통해 하드 디스크 뱅크에 파이프합니다. 개의 집중 장치는 FireWire 케이블을 통해 동기화됩니다


카메라는 평평한 판에 마운트 36 "× 36" 캘리브레이션 패턴을 사용하여 모든 캡처 세션 전에 캘리브레이션됩니다. 캘리브레이션 패턴은 모든 카메라 앞에 이동합니다. Zhang [2000] 교정 기술은 유클리드 스테레오 복구에 필요한 모든 카메라 매개 변수를 복구하는 사용됩니다.


놀라운 것은

DSLR 카메라도 아닌 똑딱이(?) 디카로 만들어진 영상이라는 것입니다.


확인해 보니 PtGrey 컬러 카메라는 산업용 카메라로 글로벌셔터 기능있는 것입니다. 어쩐지 영상이 좋다라고 생각했었는데....

Posted by 이미지쿡

(링크1) Windows 환경의 Python2, Python3용으로 OpenCV 3.4 빌드하기 (opencv_contrib 포함)


최근에 PC에 다시 설치해야 할 일이 있어서 구글링해서 찾은 자료입니다.

에러없이 한번에 설치가 잘됩니다.

( * 이전에 올라온 많은 자료들은 에러가 나거나 고생을 많이 할 수 있습니다.)



특히, opencv_contrib 설치까지 쉽게 안내한 내용이라 추천드립니다. ( 2017.12.29일 작성)


3년전에 설치할때는 OpenCV 공식 사이트를 통해서 설치했는다 다시 시도해 보니

여러가지 문제가 있었습니다.(제가 잘못해서 그럴지도...)

다양한 예제와 설명이 있으니 공식사이트는 여전히 강력한 정보습득과 학습에 도움을 줍니다.


예제 활용시 어려운점이 있습니다.

예제에 나오는 모듈(SURF,SIFT 등등..)에 대한 사용 방법을 구글링해서 찾아 보거나

이전 버전의 cv2.pyd 파일을 사용해야 하는 경우도 있습니다.




(링크2) Raspberry Pi 3에 opencv_contrib 포함하여 OpenCV 3.4 설치


윈도우에 설치후 학습을 통해 충분한 이해가 되었다면 raspberry pi에 설치해서 응용해 볼 수 있어야 합니다.

(저의 경우 55가지 예제를 실행하고 이해하는데 약 1달정도 소요된것 같습니다. 참고로 저는 이미지프로세싱관련 비전공자입니다.) 


윈도우즈 설치와는 다르게 시간이 꽤 오래 걸립니다.


아래 사이트도 설명이 잘 되어 있습니다.


https://www.pyimagesearch.com/2017/09/04/raspbian-stretch-install-opencv-3-python-on-your-raspberry-pi/





Posted by 이미지쿡

블로그 이미지
Raspberry pi 카메라로 영화 매트릭스 처럼 촬영하기
이미지쿡

공지사항

Yesterday
Today
Total