좀더 간결하게 만들수 없을까?




2017년 초에 만들었던 원형 PCB형태는 겨우 2개의 카메라를 콘트롤 하는것에 비해 크기가 너무커서 좀 더 작게 만들어 보기로 했습니다.

( http://raspberrypicamera.tistory.com/59 )


경험없이 급하게 만들다 보니, SD 카드 소켓도 거꾸로 달고... 

HDMI도 오배선 나고... 여러가지 문제가 많기도 했습니다. 


무엇보다 무선 lan은 속도가 느리고, 유선 lan으로 network 연결하면 선도 복잡해지고 지저분해지는 어려움이 있어서 기왕 시작한거 한번더 만들기로 했습니다.


기존 보드는 raspberry pi 3의 형태로 dual 카메라를 제작했다면, 이번에는 CM3 모듈(SD 카드 소켓 없는 모델)을 활용하였습니다.

https://www.raspberrypi.org/products/compute-module-3/ )


속도는 느려지겠지만 emmc 대신에 메모리 확장이 쉽게 될 수 있도록 하기 위함입니다.(아무래도 사진과 동영상을 많이 촬영하려면 용량이 커야 하기도 하구요)


동시에 여러 카메라를 콘트롤하기 위해서 network 연결이 될 수 있도록 허브칩을 활용해서 간결하게 구성했습니다.( 4채널 허브칩이므로 최대 카메라 8개까지 구성이 가능하지만 파워 문제도 있고 해서 일단 6개 카메라만- CM 보드 3개 - 장착.)



각설하고...

 

기존원형 PCB와는 다르게 외부 연결선은 파워 USB(마이크로) 외에는 없습니다. 



 빨리 조립해 보고 싶어서 3D 프린터로 간단하게 케이스를 만들다 보니, 깜박하고 충전 배터리 장착할 부분을 못 넣었지만 그냥저냥 평가용으로 사용은 가능합니다.




외부 모니터(HDMI, 또는 터치 LCD) 대신에 스마트폰을 활용하기로 했습니다.

무선으로 연결해야 이동도 편하고, 휴대가 쉽기 때문이기도 하구요

(속도 문제는 5G wifi로 해결 했습니다. 중국산이지만 매우 매우 저렴합니다.)




흠... 이정도면 뭐.....



손에 딱 들어 오는 크기라 맘에 들기는 했지만, 여전히 오배선 문제와 각종 F/w를 구동시키는 문제가 산넘어 산이였습니다. (물론 아직도 하고 있지만요..)



시간이 되면 

그동안 겪었던 S/W 설치와 나름 개발했던 F/w관련 이야기를 정리해 보겠습니다.

Posted by 이미지쿡

New video technology that reveals an

object's hidden properties(2015)




2015년에 처음 봤을때 , 깜짝 놀랐던 기억이 납니다.

당시에는 관련 지식이 부족해서 그냥 신기하다고 생각했는데, 지금 다시 보니 정말 대단합니다.


강연은 이렇게 시작합니다.


"움직임들 중 그 크기가 매우 미세해서 우리 눈에 분별하기 어려운 것들도 있습니다. 우리는 지난 몇 년에 걸쳐 인간이 보지 못하는 이 움직임을 카메라로 식별할 

수 있다는 사실을 알아냈습니다."


미세한 움직임을 포착해서

1)  비디오 영상만으로 소리를 재현해 내고,

2)  사물의 속성(어떤 형태로 움직이는지..)을 확장시켜 보여줄 수 있습니다.


원리는 아래와 같습니다.


1) 소리는 사물을 진동시키고,

2) 미세한 진동은 비디오로 촬영되어, 픽셀의 움직임을 음성신호로 전환한다....







먼거리에서도 가능합니다.

연사가 말했듯이 도청등에 사용할것이라 생각하지만

(도청 용도의 기능은 레이저를 활용해서 더 성능 좋은 장치들이 많다고 합니다..)









무엇 보다 놀라운 것은

일반 스마트폰에서 사용하는(값이 싸서) Rolling shutter 기술을 이용할 수 있다는

것입니다. (일반적인 Bullet time effect 카메라에서는 피하는 기술임에도 불구하고..)





약간의 동영상 촬영을 통해서 아래처럼

"Interactive Simulation"이라는 결과를 보여줍니다.


즉, 사진의 특정한 곳을 마우스로 잡아 당기면 그 힘에 비례해서 속성에 따라 움직입니다. (대략 원리는 감이 잡히기는 합니다..)



 

주로 영화 특수 효과에 활용했을때 가장 큰 효과가 있는듯합니다.







전체 강연 "강추"합니다. 

영상에 관심이 많으신 분이라면 꼭 한번 봐야 합니다. ^^



이 기술을 이용해서 

조만간 새로운 사진, 동영상 편집기술이나 혹은 제품이 나오지 않을까 예측해 봅니다.



Abe Davis의 정보를 더 찾아 봤습니다.

2017년도에 계속해서 논문도 발표하고, 

(아래 동영상도 정말 놀랍네요...)





Unstructured Light Fields 쪽으로 추가 연구를 진행하고 있는 것 같습니다.





Posted by 이미지쿡

How PhotoSynth can connect the

world's images(2007)



아주 오래전에 봤던 TED 강의였는데 상당히 인상적이 였습니다.

발표중에 마이크로소프트에서 일하게 되었다고 기뻐했던 맨트가 아직도 생각이 납니다. ^^



당시에는 360도 VR 카메라가 나오지 않았던 시절이라, 어찌나 놀랍던지.......... 


핵심기술은 바로 SIFT 입니다. OpenCV 예제에도 나옵니다.

Scale-invariant feature transform(1999)

( 특허 등록이 되어있어서 사용이 쉽지 않았을텐데.... )



암튼...웹에 올라온 수많은 사진들을 연결해서 하나로 묶을 수 있도록 SIFT 알고리즘으로 스티칭해서 파노라마로 보여줄 수 있는 기능입니다.


관련 기술은 앱으로도 나왔고... 당시에 많은 분들이 사용했던것으로 기억합니다.

혹시나 하여 최근 관련 기사를 찾아 보니...  2017년에 shutdown 되었네요..


"Microsoft Photosynth has been shut down"


2016년에 상용화된 Oculus VR과 360도 VR 카메라 때문에 더 이상 필요가 없어져서 그런것이 아닐까 추측해 봅니다.

아마도 이 강연을 보고, 영감을 받아서 360도 VR 카메라가 탄생하지 않았을까요?






Posted by 이미지쿡



Mind-blowing, magnified portraits of insects ,  Posted Oct 2017




연사는 말합니다.


"때때로 나는 아이의 시선이 있었으면 좋겠습니다. 제가 작은 소년이였을 때 처럼 세상을 바라볼 수 있기를 바랍니다. 나이가 들 수록 익숙함 때문에 호기심은 점차 사라지거나 둔화될 위험성이 있다고 생각합니다. 저는 Visual Creator로서, 익숙한 것을 새롭고 매력적인 방식으로 제시하는 것이 도전중의 하나 입니다."



5mm의 곤충을 사진으로 촬영하기 위해 10micros씩(머리카락의 1/7) 움직일 수 있는 레일도 설치하고 조명시설과 특별한 카메라를 이용해서 곤충마다 8~10000장의 개별 사진을 촬영하여 하나의 거대한(!,  3m...) 사진으로 만듭니다.








아이들에게 예술수업, 생물학 수업에 사용할 수 있도록 도움을 줍니다.



훌륭하네요... ^^




< TED 강연 내용 >



Posted by 이미지쿡

(링크) High-quality video view interpolation using a 

layered representation (2004- Microsoft Research)



무려 1484회나 인용된 논문입니다.(2004년 발표)


우선 동영상을 보시면 bullet time 영상을 8개의 카메라로 만들어 냅니다. 14년전 기술인데 현재까지 이렇게 훌륭한 기술이 상용화가 안되었다는 것이 이상할 정도입니다. 




유튜브에 보면 "Interactive "Bullet-Time" 3D Video"라고 소개 되어 있며,

"image-based rendering" 알고리즘을 적용합니다.



이 기술이 왜 연구 하게 되었는지 이렇게 설명합니다.

(비전공자가 발로 번역한것이라 내용이 이상하더라도 이해 바랍니다. 상세한 내용은 원문 참조 바랍니다.)


   " 스테레오 이미지 기반 렌더링의 모든 발전에도 불구하고 동적 장면에 대한 고품질의 고해상도 뷰를 렌더링하는 것은 여전히 매우 어렵습니다. 문제를 해결하기 위해 고해상도 카메라 (1024 × 768) 새로운 색상 세그멘테이션 기반 스테레오 알고리즘을 사용하여 모든 카메라보기에서 고화질의 사진 일치를 생성합니다


심도 불연속 근처의 영역에 대한 매트는 자동으로 추출되어 합성 중에 아티팩트를 줄입니다. 마지막으로, 대화 비율로 온라인 렌더링에 새로운 시간적 2 계층 표현이 사용됩니다. 입력 비디오가 오프라인으로 처리되면 우리의 실시간 렌더링 시스템은 언제든지 중간 뷰를 대화식으로 합성 있습니다.


대화식 "(Bullet Time)총알 시간" 기법은  동안 TV 광고 장편 영화 시청자는 "정지 프레임"효과를 사용하여 시간을 멈추고 카메라 시점을 변경하는 환상을 보게되었습니다. 가장 초기의 광고는 Dayton Taylor 필름 기반 TimetrackR 시스템2 사용하여 제작되었습니다. 시스템은 고정 시간 슬라이스를 통해 움직이는듯한 환상을주기 위해 레일을 따라 배열 여러 스틸 카메라를 활용합니다.


1http://www.3dvsystems.com/products/zcam.html

2http://www.timetrack.com/


처음 등장했을 , 효과는 신선하고 화려 보였습니다. 그리고 그것은 많은 프로덕션에서 에뮬레이트되었습니다. 가장 유명한 매트릭스는 매트릭스에서 수있는 "총알 타임"효과 것입니다. 불행히도, 효과는 일반적으로 일회성, 사전 계획된 사건입니다. 관측점 궤도는 미리 계획되어 있으며 원하는 보간 뷰를 생성하기 위해 많은 시간이 소비됩니다.

Digital Air MoviaR 같은 최신 시스템은 비디오 카메라 배열을 기반으로하지만 소프트웨어보기 보간을 피하기 위해 많은 카메라가 필요합니다.


대조적으로, 우리의 접근 방식은 훨씬 유연합니다. 우선, 일단 모든 입력 비디오가 처리되면, 보기는 상호 작용합니다.


사용자는 시간을 조작 (정지, 감속 또는 역전)하고 원하는 대로 시점을 변경하여 동적 장면을 있습니다. 시공간을 통해 다른 궤도를 촬영할 있기 때문에 가지 시청 경험이 동일 필요는 없습니다. 둘째, 고품질의 3D 스테레오 데이터를 사용할 있기 때문에 객체 조작 (삽입 또는 삭제) 쉽습니다.


우리 시스템의 특징. 현재 시스템은 비디오를 획득하고 오프라인으로 형상 정보를 계산 다음 실시간으로 렌더링 합니다. 우리가 생각한 응용 프로그램에는 발레 무술과 같은 활동을 위한 동적 이벤트 교육용 비디오의 고품질 보관이 포함되어 있기 때문에 방법을 선택했습니다. 우리의 가장 중요한 관심사는 렌더링 품질이며, 현재의 스테레오 알고리즘은 매우 효과적이지만 전체 시스템이 실시간으로 작동 만큼 빠르지 않습니다. 우리 시스템은 몰입 원격 회의 (:  blue-c [Gross et al 2003]) 또는 실시간 (라이브) 방송 3D TV 사용하기 위한 것이 아닙니다.


우리는 현재 한쪽 끝에서 다른 끝까지 30도에 걸쳐 1D 아크를 따라 배치 8 개의 카메라를 사용합니다. 우리는 시스템을 2D 카메라 배열로 확장하고 결국 360 ° 범위로 확장 계획입니다. 이것이 사소한 확장은 아니지만 Unstructured Lumigraph [Buehler et al. 2001] 이를 성취하기 위한 올바른 틀을 제공한다. 우리 연구의 주된 기여는 Unstructured Lumigraph 사용 대강 위임된 보다 훨씬 나은 결과를 만들어내는 깊이 있는 이미지 표현입니다.



아래 처럼 허접(?)한 구조임에도 불구하고 멋진 영상을 만들어 내었다는 것은...

아마도 전/후작업을 어마어마 하게 많이 했을 것이라 생각됩니다. (얼마나? 글쎄요.. 1달이상???)



< 문헌에 설명된 내용은 아래와 같습니다. >


8 개의 카메라가 수평 호를 따라 배치 비디오 캡처 시스템의 구성을 보여줍니다.

우리는 고해상도 (1024 × 768) PtGrey 컬러 카메라를 사용하여 8mm 렌즈로 15fps 비디오를 캡처하여 30 ° 수평 시야를 만듭니다. 모든 입력 비디오의 실시간 저장을 처리하기 위해 Pt-Grey에게 개의 집중 장치를 구축하도록 의뢰했습니다. 집중 장치는 4 개의 카메라를 동기화하고 4 개의 압축 비디오 스트림을 광섬유 케이블을 통해 하드 디스크 뱅크에 파이프합니다. 개의 집중 장치는 FireWire 케이블을 통해 동기화됩니다


카메라는 평평한 판에 마운트 36 "× 36" 캘리브레이션 패턴을 사용하여 모든 캡처 세션 전에 캘리브레이션됩니다. 캘리브레이션 패턴은 모든 카메라 앞에 이동합니다. Zhang [2000] 교정 기술은 유클리드 스테레오 복구에 필요한 모든 카메라 매개 변수를 복구하는 사용됩니다.


놀라운 것은

DSLR 카메라도 아닌 똑딱이(?) 디카로 만들어진 영상이라는 것입니다.


확인해 보니 PtGrey 컬러 카메라는 산업용 카메라로 글로벌셔터 기능있는 것입니다. 어쩐지 영상이 좋다라고 생각했었는데....

Posted by 이미지쿡

(링크1) Windows 환경의 Python2, Python3용으로 OpenCV 3.4 빌드하기 (opencv_contrib 포함)


최근에 PC에 다시 설치해야 할 일이 있어서 구글링해서 찾은 자료입니다.

에러없이 한번에 설치가 잘됩니다.

( * 이전에 올라온 많은 자료들은 에러가 나거나 고생을 많이 할 수 있습니다.)



특히, opencv_contrib 설치까지 쉽게 안내한 내용이라 추천드립니다. ( 2017.12.29일 작성)


3년전에 설치할때는 OpenCV 공식 사이트를 통해서 설치했는다 다시 시도해 보니

여러가지 문제가 있었습니다.(제가 잘못해서 그럴지도...)

다양한 예제와 설명이 있으니 공식사이트는 여전히 강력한 정보습득과 학습에 도움을 줍니다.


예제 활용시 어려운점이 있습니다.

예제에 나오는 모듈(SURF,SIFT 등등..)에 대한 사용 방법을 구글링해서 찾아 보거나

이전 버전의 cv2.pyd 파일을 사용해야 하는 경우도 있습니다.




(링크2) Raspberry Pi 3에 opencv_contrib 포함하여 OpenCV 3.4 설치


윈도우에 설치후 학습을 통해 충분한 이해가 되었다면 raspberry pi에 설치해서 응용해 볼 수 있어야 합니다.

(저의 경우 55가지 예제를 실행하고 이해하는데 약 1달정도 소요된것 같습니다. 참고로 저는 이미지프로세싱관련 비전공자입니다.) 


윈도우즈 설치와는 다르게 시간이 꽤 오래 걸립니다.


아래 사이트도 설명이 잘 되어 있습니다.


https://www.pyimagesearch.com/2017/09/04/raspbian-stretch-install-opencv-3-python-on-your-raspberry-pi/





Posted by 이미지쿡

저비용의 단순한 촬영 동기화 방법은 없을까?(2)


앞서 설명한 간단한 방법이 맘에 들기는 하지만, 단순히 촬영만 가능하므로 사진 촬영후 이미지를 받아 오거나, 촬영 옵션을 한꺼번에 변경한다거나 하는 복잡한(?) 작업은 불가능합니다.


이러한 문제를 해결할 수 있는 방법은.......

리눅스에서 제공하는 Libgphoto2, Gphoto2를 활용하는 것입니다.

우선 라즈베리파이 CM 보드에 설치해 봤습니다.
설치 방법은 대단히 간단합니다. 아래 내용 copy해서 실행하면 알아서 설치가 완료됩니다.(약10분)

wget https://raw.githubusercontent.com/gonzalo/gphoto2-updater/master/gphoto2-updater.sh && chmod +x gphoto2-updater.sh && sudo ./gphoto2-updater.sh


설치후 


" gphoto2 --list-cameras " 입력하고 엔터키 치면 지원되는 카메라 종류가 나옵니다.

불행하게도 제가 가지고 있는 카메라는 Sony사의 NEX5 모델인데 지원이 않됩니다. ㅠㅜ



하여 동작은 확인하지 못했습니다만, 구글링해 보니 지원되는 모델들은 잘 동작하는 것 같습니다.





(위 동영상 소스제공 사이트 : https://github.com/scheckmedia/CameraControllerApi )

나중에 시간내서 동작시켜 보고 후기 올리도록 하겠습니다.



한가지 주의할 점은 USB를 통해서 여려대의 DSRL 카메라를 동기화 시킬 경우 지연되는 문제가 있는것 같습니다.


1) http://gphoto-software.10949.n7.nabble.com/Using-gphoto-for-Bullet-time-photography-td16734.html


여기서는 외장 트리거를 활용해서 촬영을 하고, 사진 촬영된 파일은 gphoto2를 활용해서 전송받는 것을 권하고 있습니다.


아래 2)번 글은 위의 1)번 내용보다 오래된것인데, gphoto2만으로도 가능하다고 하는데...

한번 해봐야 알것 같습니다.(그나저나 고가의 캐논 카메라가 없어서.... ㅠㅜ)


2)http://gphoto-software.10949.n7.nabble.com/Using-24-cameras-at-once-with-gPhoto2-td12595.html


Posted by 이미지쿡

저비용의 단순한 촬영 동기화 방법은 없을까?


지금까지 전문가용으로 판매되는 제품을 살펴 보았는데.... "비싸다". 입니다.... ㅠㅜ


하여, 일반 사용자가 적은 비용으로 쉽게 할 수 있는 방법은 뭐가 있을까? 의문이 생겼고 구글링해서 방법을 찾아 봤습니다.


결론은 아래 두가지만 있으면 간단하게 동기화가 가능합니다.


1.canon 유선 리모콘 (TC-80N3)

2.표준 스테레오 헤드폰 Y-어뎁터


제한 사항이 있다면, 각 사별로 shutter release 콘넥터가 다르므로 확인후 구성해야 합니다.




와우! 아이디어 좋네요...


cannon 리모콘이 있다면 헤드폰 spliter(2개짜리 혹은 6개짜리 응용 가능) 저렴하게 구매하면 아주

쉽게 해결이 가능해 보입니다.


cannon 리모콘이 없다면, 라즈베리파이나 아두이노로 만들거나 아니면 저렴한 레이저 포인터를 개조(?)해도 될듯합니다.


국내에서 라즈베리파이로 간단하게 만든 DIY 리모콘이 있군요..

참고해서 만들어 보아도 재미있을듯 합니다. 




Posted by 이미지쿡


유선 및 Sync Generator를 활용한 방법보다 간단하게 설치하기 위해서는 무선방식이 가장 효율적인데 구글링 해보니 Gopro(동일기종)을 할용한 방법이 있어서 소개합니다.


물론 Gopro가 롤링셔터 방식이기 때문에 Bullet time (정확하게는 Frozen Time  방식)으로 촬영하기에는 적합하지 않을 수 있지만, 향후에 Frozen Time 카메라 언젠가 시장에 나오게 된다면 무선 sync 방식일 가능성이 높습니다.




Timecode Systems 라는 회사에서 나온 제품입니다. (저는 고프로가 없기 때문에

사용해 보지 못했습니다.)





위의 workflow를 보시면 대략 짐작하게시겠지만, 가운데 그림(Master:pluse)이 wifi 허브 (Access point)이고 나머지수신기들이 할당된 Slave(ip) 정도로 생각하시면 될것 같습니다.


허브는 아래와 같이 생겼고..


각 카메라별 송수신기가 부착되는 방식입니다.



전용 편집 SW가 별개로 있습니다. (아무래도 준/전문가용이라....)

나름 괜찮아 보입니다.


그런데 가격이 비싸 보이네요.. 마스터만 279$, 고프로 HERO6에 장착되는 SyncBac Pro 268$ (여러개 사용하면 후덜덜 하네요...) 

카메라 15개 동작시키려면 약 470만원정도 듭니다. (카메라 제외한 금액)


일반 사용자라면 가당치 않는 금액이군요... 헐..


Gopro 히어로 6까지 15대 정도 구매하면(아마존에서 $399 판매)


$399 x 15대 x 1100(원-환율) = 약 660만원

무선 sync(15대)               = 약 470만원

----------------------------------

total                            = 약 1130만원


Posted by 이미지쿡

도데체 일반인들은 어떻게 사용할까?(3)


단 하나의 카메라로 bullet time effect 촬영하기


세번째 소개 하는 방법은 일반인이 사용하기에 가장 적합한 방식일것 같습니다.

정확하게 말하면 Bullet time effect는 아니며 눈속임(?!) 정도라고 할수 있습니다.


놀라운 것은 단 하나의 카메라로 구성했다는 것입니다.

일반 소비자용 카메라중 고속 촬영이 가능한 경우 이며 여기서는 480fps 이나

이때문에 낮은 화질로 촬영이 되었습니다.(224x160)


어마어마한 회전 거치대(?)를 직접 만들어야 하고 

이동이나 휴대가 불가능해 보이지만 그래도 효과는 대단히 좋습니다. ^^

(열정에 박수를 보냅니다...짝짝짝...)


(2014.8.19일 - 조회소 61540회 -2018.2.16일 기준)




(추측컨데..) 위의 원리를 이용하여 좀더 고화질로 촬영 가능한 방법이 소개 되어 있습니다.


insta360 one이라는 카메라를 활용하며(판매 회사의 홈페이지에 "Bullet time"이라고 표기가 되어있습니다.)


일반적인 4K 360도 VR 촬영도 가능하며 Bullet time effect 촬영도 가능하다고 소개 하고 있습니다.  최대 사양은 2048 * 512(24MP) / 120fps 입니다.


휘둘러야 하는(상당히 위험해 보입니다만..) 추가적인 촬영 기법이 필요하지만 효과는 괜찮아 보입니다. 하지만 사람이 많은 곳에서는 피해야 할것 같습니다.




가격은 269$입니다. (2018.2.16일 기준)



결론적으로 하나의 카메라로 Bullet time effect효과를 내기 위해서는 120 fps 이상에 고화질(Full HD급) 이미지 센서 기능이 있다면 


Swing 촬영(? - 휘두르기) 기법으로 어느 정도 효과가 있어 보입니다.

현재까지 개인이 쉽게 사용 가능한 가장 현실적인 방법인듯 합니다. 



Posted by 이미지쿡

블로그 이미지
Raspberry pi 카메라로 영화 매트릭스 처럼 촬영하기
이미지쿡

공지사항

Yesterday
Today
Total