좀더 간결하게 만들수 없을까?




2017년 초에 만들었던 원형 PCB형태는 겨우 2개의 카메라를 콘트롤 하는것에 비해 크기가 너무커서 좀 더 작게 만들어 보기로 했습니다.

( http://raspberrypicamera.tistory.com/59 )


경험없이 급하게 만들다 보니, SD 카드 소켓도 거꾸로 달고... 

HDMI도 오배선 나고... 여러가지 문제가 많기도 했습니다. 


무엇보다 무선 lan은 속도가 느리고, 유선 lan으로 network 연결하면 선도 복잡해지고 지저분해지는 어려움이 있어서 기왕 시작한거 한번더 만들기로 했습니다.


기존 보드는 raspberry pi 3의 형태로 dual 카메라를 제작했다면, 이번에는 CM3 모듈(SD 카드 소켓 없는 모델)을 활용하였습니다.

https://www.raspberrypi.org/products/compute-module-3/ )


속도는 느려지겠지만 emmc 대신에 메모리 확장이 쉽게 될 수 있도록 하기 위함입니다.(아무래도 사진과 동영상을 많이 촬영하려면 용량이 커야 하기도 하구요)


동시에 여러 카메라를 콘트롤하기 위해서 network 연결이 될 수 있도록 허브칩을 활용해서 간결하게 구성했습니다.( 4채널 허브칩이므로 최대 카메라 8개까지 구성이 가능하지만 파워 문제도 있고 해서 일단 6개 카메라만- CM 보드 3개 - 장착.)



각설하고...

 

기존원형 PCB와는 다르게 외부 연결선은 파워 USB(마이크로) 외에는 없습니다. 



 빨리 조립해 보고 싶어서 3D 프린터로 간단하게 케이스를 만들다 보니, 깜박하고 충전 배터리 장착할 부분을 못 넣었지만 그냥저냥 평가용으로 사용은 가능합니다.




외부 모니터(HDMI, 또는 터치 LCD) 대신에 스마트폰을 활용하기로 했습니다.

무선으로 연결해야 이동도 편하고, 휴대가 쉽기 때문이기도 하구요

(속도 문제는 5G wifi로 해결 했습니다. 중국산이지만 매우 매우 저렴합니다.)




흠... 이정도면 뭐.....



손에 딱 들어 오는 크기라 맘에 들기는 했지만, 여전히 오배선 문제와 각종 F/w를 구동시키는 문제가 산넘어 산이였습니다. (물론 아직도 하고 있지만요..)



시간이 되면 

그동안 겪었던 S/W 설치와 나름 개발했던 F/w관련 이야기를 정리해 보겠습니다.

Posted by 이미지쿡

New video technology that reveals an

object's hidden properties(2015)




2015년에 처음 봤을때 , 깜짝 놀랐던 기억이 납니다.

당시에는 관련 지식이 부족해서 그냥 신기하다고 생각했는데, 지금 다시 보니 정말 대단합니다.


강연은 이렇게 시작합니다.


"움직임들 중 그 크기가 매우 미세해서 우리 눈에 분별하기 어려운 것들도 있습니다. 우리는 지난 몇 년에 걸쳐 인간이 보지 못하는 이 움직임을 카메라로 식별할 

수 있다는 사실을 알아냈습니다."


미세한 움직임을 포착해서

1)  비디오 영상만으로 소리를 재현해 내고,

2)  사물의 속성(어떤 형태로 움직이는지..)을 확장시켜 보여줄 수 있습니다.


원리는 아래와 같습니다.


1) 소리는 사물을 진동시키고,

2) 미세한 진동은 비디오로 촬영되어, 픽셀의 움직임을 음성신호로 전환한다....







먼거리에서도 가능합니다.

연사가 말했듯이 도청등에 사용할것이라 생각하지만

(도청 용도의 기능은 레이저를 활용해서 더 성능 좋은 장치들이 많다고 합니다..)









무엇 보다 놀라운 것은

일반 스마트폰에서 사용하는(값이 싸서) Rolling shutter 기술을 이용할 수 있다는

것입니다. (일반적인 Bullet time effect 카메라에서는 피하는 기술임에도 불구하고..)





약간의 동영상 촬영을 통해서 아래처럼

"Interactive Simulation"이라는 결과를 보여줍니다.


즉, 사진의 특정한 곳을 마우스로 잡아 당기면 그 힘에 비례해서 속성에 따라 움직입니다. (대략 원리는 감이 잡히기는 합니다..)



 

주로 영화 특수 효과에 활용했을때 가장 큰 효과가 있는듯합니다.







전체 강연 "강추"합니다. 

영상에 관심이 많으신 분이라면 꼭 한번 봐야 합니다. ^^



이 기술을 이용해서 

조만간 새로운 사진, 동영상 편집기술이나 혹은 제품이 나오지 않을까 예측해 봅니다.



Abe Davis의 정보를 더 찾아 봤습니다.

2017년도에 계속해서 논문도 발표하고, 

(아래 동영상도 정말 놀랍네요...)





Unstructured Light Fields 쪽으로 추가 연구를 진행하고 있는 것 같습니다.





Posted by 이미지쿡

How PhotoSynth can connect the

world's images(2007)



아주 오래전에 봤던 TED 강의였는데 상당히 인상적이 였습니다.

발표중에 마이크로소프트에서 일하게 되었다고 기뻐했던 맨트가 아직도 생각이 납니다. ^^



당시에는 360도 VR 카메라가 나오지 않았던 시절이라, 어찌나 놀랍던지.......... 


핵심기술은 바로 SIFT 입니다. OpenCV 예제에도 나옵니다.

Scale-invariant feature transform(1999)

( 특허 등록이 되어있어서 사용이 쉽지 않았을텐데.... )



암튼...웹에 올라온 수많은 사진들을 연결해서 하나로 묶을 수 있도록 SIFT 알고리즘으로 스티칭해서 파노라마로 보여줄 수 있는 기능입니다.


관련 기술은 앱으로도 나왔고... 당시에 많은 분들이 사용했던것으로 기억합니다.

혹시나 하여 최근 관련 기사를 찾아 보니...  2017년에 shutdown 되었네요..


"Microsoft Photosynth has been shut down"


2016년에 상용화된 Oculus VR과 360도 VR 카메라 때문에 더 이상 필요가 없어져서 그런것이 아닐까 추측해 봅니다.

아마도 이 강연을 보고, 영감을 받아서 360도 VR 카메라가 탄생하지 않았을까요?






Posted by 이미지쿡

블로그 이미지
Raspberry pi 카메라로 영화 매트릭스 처럼 촬영하기
이미지쿡

공지사항

Yesterday
Today
Total