[go: up one dir, main page]

KR101422839B1 - 화상 표시 시스템, 표시 장치, 표시 방법 - Google Patents

화상 표시 시스템, 표시 장치, 표시 방법 Download PDF

Info

Publication number
KR101422839B1
KR101422839B1 KR1020070126260A KR20070126260A KR101422839B1 KR 101422839 B1 KR101422839 B1 KR 101422839B1 KR 1020070126260 A KR1020070126260 A KR 1020070126260A KR 20070126260 A KR20070126260 A KR 20070126260A KR 101422839 B1 KR101422839 B1 KR 101422839B1
Authority
KR
South Korea
Prior art keywords
image
speed
display
image data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020070126260A
Other languages
English (en)
Other versions
KR20080052475A (ko
Inventor
요이찌로 사꼬
게이지 기무라
마사아끼 쯔루따
마사미찌 아스까이
다이지 이또
노조무 오자끼
아끼노부 스기노
히데히꼬 세끼자와
요네따로 도쯔까
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20080052475A publication Critical patent/KR20080052475A/ko
Application granted granted Critical
Publication of KR101422839B1 publication Critical patent/KR101422839B1/ko
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/36Monitoring, i.e. supervising the progress of recording or reproducing

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

표시 장치와, 이동체에 장착된 촬상 장치와, 서버 장치를 포함하는 화상 표시 시스템이 개시된다. 상기 표시 장치와 상기 촬상 장치는 상기 서버 장치와 통신할 수 있다. 상기 촬상 장치는 촬상부와, 속도 검출부와, 상기 서버 장치로의 화상 데이터 및 속도 정보의 송신을 제어하는 제어부를 구비한다. 상기 서버 장치는 상기 속도 정보를 이용하여 상기 이동체의 이동 속도를 관리하는 이동체 속도 관리부와, 상기 속도 지정 정보에 해당하는 촬상 장치를 특정하고 특정한 촬상 장치로부터 상기 표시 장치에 화상 데이터를 전송시키는 전송 제어부를 행하는 제어부를 구비한다. 상기 표시 장치는 표시부와, 속도 지정 처리, 화상 요구 송신 처리 및 표시 처리를 행하는 제어부를 구비한다.
Figure R1020070126260
촬상/표시 장치, 화상처리, 네비게이션 시스템, 서버 장치, 일/시 계수부

Description

화상 표시 시스템, 표시 장치, 표시 방법{IMAGE DISPLAY SYSTEM, DISPLAY APPARATUS AND DISPLAY METHOD}
<관련 출원의 교차 참조>
본 발명은 2006년 12월 7일에 일본 특허청에 출원된 특허 출원 제JP 2006-330833호에 관련된 기술내용을 포함하며, 이하 본 명세서에서 참조된다.
본 발명은, 화상 표시 시스템, 표시 장치, 표시 방법에 관한 것이다. 특히, 본 발명은 표시 장치 측에서 지정한 속도로 이동하고 있는 이동체에 탑재된 촬상 장치에 의해 촬상된 화상의 표시를 행하는 기술에 관한 것이다.
데이터통신 시스템의 일례가 JP-A-2005-341604에 설명되어 있다.
카메라에 의해 촬상된 화상을 이용하는 카 네비게이션 시스템이 갖고 있는 입체지도를 갱신하는 기술이 JP-A-2005-337863에 설명되어 있다.
방송되어 기록된 프로그램을 WWW(World Widw Web)상에서 확장해서 즐기는 시도가 JP-T-2004-538681, JP-T-2004-537193 및 JP-T-2004-538679에 개시되어 있다.
그러나, 유저가 임의로 이동체의 속도를 지정하고, 지정된 속도로 이동하는 이동체에 의해 촬상된 화상을 볼 수 있게 해주는 기술은 아직 제안되어 있지 않다.
그래서, 본 발명은, 유저가 속도를 지정하고 이 지정된 속도로 이동하는 촬상 장치에 의해 실제로 촬상된 화상을 볼 수 있게 해주는 것을 고안하였다.
본 발명의 한 실시예에 따르면, 표시 장치와, 이동체에 장착되어서 촬상을 행하는 촬상 장치와, 서버 장치를 포함하는 화상 표시 시스템이 제공된다. 상기 표시 장치와 상기 촬상 장치는 각각 상기 서버 장치와 통신 가능하다. 상기 촬상 장치는 화상 데이터를 얻기 위해 화상을 촬상하도록 구성된 촬상부와; 상기 이동체의 이동 속도를 검출하고 검출된 상기 이동 속도를 나타내는 속도 정보를 생성하도록 구성된 속도 검출부와; 상기 촬상부가 얻은 화상 데이터, 및 상기 속도 검출부가 생성한 속도 정보를, 상기 서버 장치에 송신시키는 송신 제어 처리를 행하도록 구성된 제어부를 구비한다. 상기 서버 장치는 상기 촬상 장치로부터 송신된 상기 속도 정보를 이용하여 상기 촬상 장치가 탑재된 상기 이동체의 이동 속도를 관리하도록 구성된 이동체 속도 관리부와; 상기 표시 장치로부터 송신된 속도 지정 정보에 기초하여, 상기 이동체 속도 관리부에 의해 관리되는 이동체의 이동 속도를 확인하고, 상기 속도 지정 정보에 해당하는 촬상 장치를 특정하는 카메라 특정 처리와, 특정된 촬상 장치로부터 상기 표시 장치에 화상 데이터를 전송시키는 전송 제어 처리를 행하도록 구성된 제어부를 구비한다. 상기 표시 장치는 화상 표시를 행하도록 구성된 표시부와; 유저 입력에 기초해서 상기 속도 지정 정보를 설정하는 속도 지정 처리, 상기 서버 장치에 상기 속도 지정 정보를 송신해서 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신된 화상 데이터를 수신해 수신된 화상 데이터에 기초하여 표시 동작을 상기 표시부에 실행시키는 표시 처리를 행하도록 구성된 제어부를 구비한다.
본 발명의 다른 실시 형태에 따르면, 표시 장치와, 이동체에 장착되어서 촬상을 행하는 촬상 장치와, 서버 장치를 포함하는 화상 표시 시스템이 제공된다. 상기 표시 장치와 상기 촬상 장치는 각각 상기 서버 장치와 통신 가능하다. 상기 촬상 장치는 화상 데이터를 얻기 위해 화상을 촬상하는 촬상부와; 상기 이동체의 이동속도를 검출하고 검출된 이동속도를 나타내는 속도 정보를 생성하도록 구성된 속도 검출부와; 상기 촬상부에 의해 얻어진 화상 데이터와, 적어도, 촬상에 의해 상기 화상 데이터가 얻어졌을 때에 상기 속도 검출부에 의해 생성된 속도 정보를 포함하는 부가 데이터를, 상기 서버 장치에 송신시키는 송신 제어 처리를 행하도록 구성된 제어 수단을 구비한다. 상기 서버 장치는 상기 촬상 장치로부터 송신된 상기 화상 데이터 및 상기 부가 데이터를 저장하도록 구성된 저장부와; 상기 표시 장치로부터 송신된 속도 지정 정보에 기초하여, 상기 저장부에 저장된 화상 데이터의 검색을 행하고, 검색된 화상 데이터를 상기 저장부로부터 판독해서 상기 표시 장치로 송신시키는 검색/송신 제어 처리를 행하도록 구성된 제어부를 구비한다. 상기 표시 장치는 화상 표시를 행하도록 구성된 표시부와, 유저 입력에 기초해서 상기 속도 지정 정보를 설정하는 속도 지정 처리, 상기 서버 장치에 상기 속도 지정 정보를 송신해서 화상 데이터를 요구하는 화상 요구 송신 처리, 및 상기 화상 요구 송신 처리에 응답하여 상기 서버 장치로부터 송신된 화상 데이터를 수신해 수신된 화상 데이터에 기초하여 표시 동작을 상기 표시부에 실행시키는 표시 처리를 행하도록 구성된 제어부를 구비한다.
본 발명의 또 다른 실시 형태에 따르면, 화상 표시를 행하도록 구성된 표시부와; 외부의 서버 장치와 데이터 통신을 행하도록 구성된 통신부와; 유저 입력에 기초해서 속도 지정 정보를 설정하는 속도 지정 처리, 상기 통신부를 통해서 상기 서버 장치에 상기 속도 지정 정보를 송신해서 화상 데이터를 요구하는 화상 요구 송신 처리, 및 상기 화상 요구 송신 처리에 응답하여 상기 서버 장치로부터 송신된 화상 데이터를 상기 통신부에 의해 수신시켜 수신된 화상 데이터에 기초하여 표시 동작을 상기 표시부에 실행시키는 표시 처리를 행하도록 구성된 제어부를 구비하는 표시 장치가 제공된다.
본 발명의 다른 실시 형태에 따르면, 유저 입력에 기초해서 속도 지정 정보를 설정하는 단계와; 화상 데이터를 요구하기 위해 외부의 서버 장치에 상기 속도 지정 정보를 송신하는 단계와; 상기 요구에 응답하여 상기 서버 장치로부터 송신된 화상 데이터를 수신하고, 수신된 화상 데이터에 기초하여 표시를 행하는 단계를 구비하는 표시 방법이 제공된다.
본 발명에 따르면, 표시 장치의 유저는, 속도를 지정함으로써, 그 지정된 속도로 이동하고 있는 이동체에 탑재된 촬상 장치에 의해 실제로 촬상된 화상을 볼 수 있다. 그러한 외부의 촬상 장치의 예는, 타인이 장착하고 있는 촬상 장치; 자동차, 전철 등에 부착된 촬상 장치; 동물이나 새 등에 장착된 촬상 장치 등이 있다.
시스템 동작의 예는 촬상된 화상 데이터를 서버 장치를 통해서 촬상 장치로부터 표시 장치에 실시간으로 전송하는 동작; 및 촬상 장치로 촬상된 화상 데이터를 서버 장치에 축적하고, 축적된 화상 데이터를 판독해서 표시 장치에 공급하는 동작을 포함한다.
실시간 전송의 경우, 서버 장치는 상기 이동체 속도 관리부를 이용하여 각 이동체의 이동 속도를 파악한다. 그렇게 하면, 표시 장치로부터 속도 지정 정보를 접수했을 때, 서버 장치는 속도 지정 정보에 해당하는 촬상 장치를 지정할 수 있다. 서버 장치는 지정된 촬상 장치로부터 표시 장치로 화상 데이터가 전송되도록 한다. 표시 장치는 화상 데이터를 수신하여 표시한다. 그 결과, 표시 장치의 유저는 지정된 속도에 대응하는 속도로 이동하는 촬상 장치가 촬상한 현재 광경의 표시 화상을 볼 수 있다.
화상 데이터가 서버 장치에 축적되어 있는 경우, 이동체에 탑재된 촬상 장치에 의해 촬상된 화상 데이터는, 촬상시의 이동 속도를 나타내는 속도 정보를 포함하는 부가 데이터와 함께 서버 장치로 송신되고, 상기 화상 데이터와 상기 부가 데이터는 서버 장치에 저장된다. 따라서, 서버 장치에는 다수의 촬상 장치가 각지에서 촬상한 화상 데이터가 속도 정보와 함께 축적된다. 이렇게 해 두면, 표시 장치측에서 속도를 지정해서 지정된 속도를 나타내는 속도 지정 정보를 서버 장치로 송신하면, 서버 장치는 속도 지정 정보에 기초해서 내부에 저장된 화상 데이터를 검색할 수 있다. 서버 장치는 속도 지정 정보에 매칭(match)되는 화상 데이터를 검색하고, 검색된 화상 데이터를 표시 장치로 송신한다. 표시 장치는 화상 데이터를 수신하여 표시한다. 그 결과, 표시 장치의 유저는 지정한 속도로 이동하는 촬상 장치가 촬상한 과거 광경의 표시 화상을 볼 수 있다.
본 발명에 따르면, 표시 장치의 유저는, 속도를 지정함으로써, 그 지정한 속도로 이동하고 있는(또는 있었던) 촬상 장치에 의해 촬상된 화상을 볼 수 있다. 이와 같이, 본 발명은 유저가 다양한 속도로 이동하는 이동체들이 볼 수 있는 광경들을 체험할 수 있게 해준다.
또한, 유저는 지도 화상을 이용하여 위치를 지정할 수 있기 때문에, 예를 들어, 특정 위치에서 특정 속도로 이동했을 경우에 보이는 광경을 볼 수 있다. 이는 위치 지정할 수 있는 어떤 장소에서 어떤 속도로 이동했을 때 보일 수 있는 광경을 확인하거나, 그러한 광경을 즐기고 싶은 경우에 적합하다.
또한, 유저는 일/시도 지정할 수 있으므로, 어떤 일/시에 어떤 속도로 이동했을 경우에 보일 수 있는 광경을 볼 수 있다. 따라서, 유저에게 다양한 광경을 제공할 수 있다.
이하, 본 발명의 양호한 실시 형태에 따른 화상 표시 시스템, 표시 장치, 표시 방법을 설명한다. 양호한 실시 형태에 따른 촬상/표시 장치(1) 또는 표시 장치(40)는 첨부 청구항들에 열거된 표시 장치에 대응하고, 양호한 실시 형태에서, 본 발명에 따른 표시 방법은 촬상/표시 장치(1) 및 표시 장치(40)의 처리로서 행해진다. 한편, 양호한 실시 형태에 따른 촬상/표시 장치(1) 및 촬상 장치(30)는 첨부 청구항들에서 열거된 촬상 장치에 대응한다. 그러므로, 양호한 실시 형태에 따른 촬상/표시 장치(1)는, 첨부 청구항에서 열거된 표시 장치 및 촬상 장치로서 기능할 수 있다.
다음 설명은 다음 순서로 행한다.
[1. 촬상/표시 장치, 촬상 장치, 및 표시 장치의 외관예]
[2. 시스템 형태]
[3. 촬상/표시 장치, 촬상 장치, 표시 장치 및 서버 장치의 구조예]
[4. 시스템 동작 예 I]
[5. 시스템 동작 예 II]
[6. 실시 형태의 효과, 변형 예, 및 확장 예]
[1. 촬상/표시 장치, 촬상 장치 및 표시 장치의 외관 예]
도 1은 촬상/표시 장치(1)의 외관 예를 나타낸다. 이 촬상/표시 장치(1)는 안경형 디스플레이 카메라로서 유저가 장착할 수 있다.
촬상/표시 장치(1)는, 예를 들면, 양측 머리부로부터 후두부에 걸쳐서 머리를 반 주회하는 프레임 구조의 장착 유닛을 갖추고 있고, 이 도면에서 볼 수 있는 바와 같이 유저는 이 장착 유닛을 양쪽 귀에 채워서 촬상/표시 장치(1)를 장착할 수 있다.
이 촬상/표시 장치(1)는 좌안용과 우안용의 한 쌍의 표시 패널부(2a 및 2b)를 갖추고 있고, 표시 패널부(2a 및 2b)는 유저가 도 1에 도시된 바와 같은 식으로촬상/표시 장치(1)를 장착할 때 유저의 양 눈의 직전(즉, 통상의 안경 렌즈가 위치하는 장소)에 배치된다. 예를 들면, 액정 패널은 표시 패널부(2a 및 2b)로서 이용되고, 표시 패널부(2a 및 2b)는 투과율을 제어 함으로써 도면에서 볼 수 있는 바와 같이, 비치는 상태, 즉 투명 또는 반투명의 상태로 할 수 있다.
표시 패널부(2a 및 2b)가 비치는 상태로 되는 능력은, 유저가 안경을 착용할 때와 같이 촬상/표시 장치(1)를 항상 착용할 수 있게 하여, 통상의 생활에는 지장이 없다.
또한, 촬상/표시 장치(1)는, 유저가 촬상/표시 장치(1)를 장착하고 있으면서 볼 수 있는 방향에 있는 경관을 촬상할 수 있도록 전방을 향해서 배치된 촬상 렌즈(3a)를 갖추고 있다.
또한, 촬상/표시 장치(1)는 촬상 렌즈(3a)에 의한 촬상 방향에 대하여 조명을 행하는 발광부(4a)를 갖고 있다. 발광부(4a)는 예를 들면 발광 다이오드(LED)에 의해 형성된다.
또한,촬상/표시 장치(1)는 유저가 이 촬상/표시 장치(1)를 장착할 때 유저의 우이공 및 좌이공(right and left earholes)에 삽입할 수 있는 한 쌍의 이어폰 스피커(5a)를 갖고 있다. 도면에는 단지 좌측 귀만이 도시되어 있다.
또한, 촬상/표시 장치(1)는 외부 음성을 집음하는 마이크로폰(6a 및 6b)을 갖고 있다. 마이크로폰(6a 및 6b)은 각각 우안용의 표시부(2)의 우측과, 좌안용의 표시부(2)의 좌측에 배치된다.
도 1은 단지 일례이며, 유저가 촬상/표시 장치(1)를 장착할 수 있는 구조는 다양하다. 일반적으로, 장착 유닛의 조건으로는 안경형 혹은 머리-장착형이어야 하므로, 예를 들면, 유저의 눈의 전방에 근접해서 표시 패널부(2a 및 2b)가 설치되고, 촬상 렌즈(3a)에 의한 촬상 방향은 유저의 눈이 향하는 방향, 즉 유저의 전방이 된다. 또한 한 쌍의 표시 패널부(2a 및 2b)는 앞서 설명한 바와 같이 양 눈에 설치될 수 있지만, 하나의 표시부만이 한쪽 눈에 설치될 수도 있다는 점에 주목한다.
또한, 촬상 렌즈(3a)에 의한 촬상 방향이 유저의 양 눈이 향하는 방향과 일치되어야 할 필요는 없다는 점에 주목한다. 예를 들어, 촬상 렌즈(3a)는 측방 또는 후방을 촬상할 수 있다.
또한, 촬상/표시 장치(1)는 좌우 스테레오 스피커(5a)를 구비해야할 필요는 없고, 한쪽의 귀에만 장착하기 위해 좌우 이어폰 스피커(5a) 중 하나만을 구비해도 좋다. 또한, 마이크로폰의 수도 1개일 수 있다는 점에 주목한다. 즉, 촬상/표시 장치(1)는 마이크로폰(6a 및 6b) 중 하나 만을 갖출 수도 있다. 또한, 촬상/표시 장치(1)는 마이크로폰이나 이어폰 스피커를 구비하지 않는 구성이어도 좋다.
또한, 촬상/표시 장치(1)는 발광부(4a)를 구비하지 않는 구성일 수도 있다.
촬상/표시 장치(1)의 장착 유닛을 안경형 혹은 머리-장착형으로 나타냈지만, 유저가 촬상/표시 장치를 장착하는데 이용되는 장착 유닛은 헤드폰형, 네크밴드형, 귀걸이형 등과 같은 임의 유형이어도 좋다. 더욱이, 촬상/표시 장치는 통상의 안경이나 바이저, 헤드폰 등에, 클립 등의 부착구(fixing device)를 통해 부착될 수 있어, 유저가 촬상/표시 장치를 장착할 수 있다. 또한, 촬상/표시 장치가 유저의 머리에 장착되는 것이 아니어도 좋다.
도 1에 도시된 촬상/표시 장치(1)는, 촬상을 위한 구성 부분과 화상을 모니터하기 위한 표시 패널부(2a 및 2b)가 일체로 형성되어 있는 것으로 유저가 장착하는 기기이다. 그러나, 유저가 장착하는 기기로서는, 도 2a에 도시된 촬상 장치(30)나 도 2b에 도시된 표시 장치(40) 등이 있을 수 있다.
도 2a에 도시된 촬상 장치(30)는, 소정의 장착 프레임에 의해 유저의 측두부(temporal regions) 중 하나에 장착된다. 촬상 장치(30)는 유저가 촬상 장치(30)를 장착한 상태에서 유저가 볼 수 있는 방향에 있는 광경을 촬상할 수 있도록 전방을 향해서 배열되어 있는 촬상 렌즈(3a) 및 발광부(4a)룰 구비하고 있다. 또한,이 촬상 장치(30)는 외부 음성을 집음하는 마이크로폰(6a)을 구비하고 있다.
즉, 이 촬상 장치(30)는, 표시 기능은 갖지 않지만, 유저에 장착된 상태에서 유저의 시계(field of vision) 내의 광경을 촬상할 수 있는 장치이다. 또한,앞서 설명한 촬상 장치(1)의 경우에서와 같이, 촬상 장치(30)는 다양한 형상, 장착 구조 및 구성 요소를 가질 수 있다.
도 2b에 도시된 표시 장치(40)는, 손목 시계형의 표시 장치이다. 표시 장치(40)는 리스트밴드(wristband)에 의해 유저의 손목에 장착된 상태에서 유저가 볼 수 있는 표시 패널부(2a)를 구비하고 있다.
도 2b에 도시된 표시 장치(40)가 손목 시계형으로 형성되어 있지만, 유저가 장착 또는 소지하는 표시 장치(40)는 다양한 형상이나 장착 또는 소지용의 구조를 취할 수도 있다. 표시 장치(40)로서는 예를 들면 유저가 소지할 수 있는 휴대용의 소형기기일 수 있다. 또한,표시 장치(40)는 유저가 장착할 수 있는 안경형의 기기(즉, 촬상 기능이 없다는 것을 제외하고는 도 1에 도시된 촬상/표시 장치(1)와 비슷한 기기)일 수도 있다.
유저가 휴대할 수 있는 표시 장치(40)가 모니터링을 위한 표시 전용인 기기일 수 있지만, 휴대 전화기, 휴대 게임기, PDA(Personal Digital Assistant) 등의 표시 기능이 있는 다른 유형의 기기도, 본 실시 형태에 따른 표시 장치(40)로서 기능할 수 있다.
또한,유저가 장착 또는 휴대하는 기기 이외에, 거치형의 표시 장치, 컴퓨터 장치, 텔레비전 수상기, 차재용 디스플레이 모니터 기기 등도, 본 실시 형태에 따른 표시 장치(40)로서 채용할 수 있다.
도 2a에 도시된 촬상 장치(30)와 도 2b에 도시된 표시 장치(40)는 서로 개별적으로 사용해도 좋지만, 유저는 촬상 장치(30) 및 표시 장치(40)를 둘 다 장착하고, 조합해서 촬상/표시 장치로서 사용할 수도 있다. 이 경우에, 촬상 장치(30)와 표시 장치(40)는 서로 데이터 통신을 행하여,예를 들어, 표시 장치(40)는 모니터링을 위해 촬상 장치(30)가 촬상한 화상을 표시하거나, 외부 기기로부터 송신되어 온 화상을 표시할 수 있다.
본 실시 형태에서,촬상/표시 장치(1)와 표시 장치(40)는 유저에 의해 이용되며, 촬상 장치(30)는 사람을 포함해서 다양한 이동체에 장착되어서 이용되는 것이 상정되어 있다. 도 2a에 도시된 바와 같은 촬상 장치(30)는 유저에 의해 장착되어 사람의 시계 내의 광경을 촬상하는 것으로 상정되어 있지만, 사람 이외의 이동체에 장착되는 다양한 촬상 장치(30)도 있다.
사람 이외의 이동체의 예는 사람 이외의 생물, 지상이동 기기, 해상이동 기기, 해중이동 기기, 항공이동 기기, 우주이동 기기를 포함한다.
사람 이외의 생물의 예는 조류, 포유류, 파충류, 양서류, 어류, 곤충류, 기타의 각종의 생물을 포함한다.
지상이동 기기의 예는 승용차, 트랙, 버스, 택시, 오토바이 등의 자동차량이 나, 자전거, 인력거 및 장난감 차 등의 인력-구동 차량을 포함한다. 다른 예는 전철, 증기기관차 등의 철도차량을 포함한다. 또한 다른 예는 유원지 등에 있어서의 탈것, 공장 기타의 시설에 있어서의 업무용의 탈것도 포함한다. 지상이동 기기는 사람이 타는 이동체에 한정되지 않는다. 예를 들어, 업무용이나 엔터테인먼트용으로 설계된 다양한 종류의 로봇 및 무선 조정 장난감 등의 장난감도 지상이동 기기의 예이다.
해상이동 기기의 예는 선박, 보트, 수상 오토바이, 서프보드, 로우보트, 부유 링 및 뗏목 등의 각종 수상 기구를 포함한다.
해중이동 기기의 예는 잠수함, 자동 수중 운송 수단, 애쿼링 등의 잠수 기구를 포함한다.
항공이동 기기의 예는 비행기, 헬리콥터, 글라이더, 패러슈트, 기구, 연 등의 각종 항공기를 포함한다.
우주이동 기기의 예는 로케트, 우주탐사기, 인공위성을 포함한다.
다른 다양한 이동체의 구체적인 예가 있을 수 있을 것이다. 촬상 장치(1)를 배치하기 위한 형상 및 구조는 촬상 장치(1)가 배치되는 이동체에 따라 다르다.
[2. 시스템 형태]
본 실시 형태에서는,촬상/표시 장치(1) 또는 표시 장치(40)의 유저는, 속도를 지정하여, 다른 촬상/표시 장치(1) 또는 촬상 장치(30)로 촬상한 현재 또는 과거의 화상을 지정한 속도로 이동시키면서 볼 수 있다. 이러한 동작을 구현하기 위한 시스템 형태의 예를 도 3에 나타내었다.
도 3은 촬상/표시 장치(1), 표시 장치(40), 촬상 장치(30) 및 서버 장치(70)가 네트워크(60)를 통해서 서로 통신하는 시스템의 구성을 나타내고 있다.
네트워크(60)의 예는 인터넷 등의 광역 네트워크, 및 LAN(Local Area Network) 등의 협대역 네트워크를 포함한다.
여기에서는,유저 A, B 및 C가, 예를 들면, 도 1에 도시된 바와 같은 촬상/표시 장치(1)를 장착하고 있다고 상정한다. 또한 유저 D는, 예를 들면, 도 2b에 도시된 바와 같은 표시 장치(40)를 장착하고 있고, 유저 E는 도 2a에 도시된 바와 같은 촬상 장치(30)를 장착하고 있다고 상정한다.
또한, 유저 F는, 촬상/표시 장치로서 작용하게 결합된 도 2a의 촬상 장치(30)와 도 2b의 표시 장치(40)를 장착하고 있다고 상정한다.
또한,이동체 G 및 이동체 H에 탑재된 촬상 장치(30)는, 적절한 형태로 장착되고, 자동차, 철도차량 또는 항공기 등의 이동체(사람 이외의 이동체)에 장착되는 촬상 장치인 것으로 상정한다.
시스템 동작 예로서, 2개의 예(시스템 동작 예 I 및 II)를 이하 설명한다. 우선, 시스템 동작 예 I인 경우, 유저 E가 장착하는 촬상 장치(30)와 이동체 G 및 H에 탑재된 촬상 장치(30)는, 정기적으로 혹은 이동 속도가 변화된 타이밍 등의 소정의 타이밍에서, 네트워크(60)를 통해 서버 장치(70)에 자기의 이동 속도를 나타내는 속도 정보를 예를 들면 카메라 ID(즉, 각 촬상 장치(30)의 식별 정보)와 함께 송신한다.
유저 A, B 및 C가 장착하고 있는 촬상/표시 장치(1)도, 항상 혹은 정기적, 혹은 소정의 타이밍에서, 네트워크(60)를 통에 서버 장치(70)에 카메라 ID와 속도 정보를 송신한다.
서버 장치(70)는 촬상 장치(30) 및 촬상/표시 장치(1) 각각의 현재 이동 속도를 항상 파악하기 위하여 촬상 장치(30) 및 촬상/표시 장치(1)의 각각으로부터 송신된 속도 정보를 그들의 카메라 ID와 함께 관리한다.
한편,유저 A, B 및 C가 장착하고 있는 촬상/표시 장치(1)나, 유저 D 및 F가 사용하는 표시 장치(40)는, 유저가 속도를 지정함에 따라서, 네트워크(60)를 통해 서버 장치(70)를 액세스하고, 지정 속도를 나타내는 속도 지정 정보를 서버 장치(70)에 송신해서 화상 요구를 행한다.
서버 장치(70)는, 속도 지정 정보에 기초하여, 이 속도 지정 정보에 일치하는 속도로 이동하고 있는 촬상 장치(30) 또는 촬상/표시 장치(1)를 특정한다. 그리고 서버 장치(70)는 특정된 촬상 장치(30) 또는 촬상/표시 장치(1)가 촬상하고 있는 화상의 화상 데이터를 송신하도록 요구한다. 이 요구에 따라서 촬상 장치(30) 또는 촬상/표시 장치(1)가 화상 데이터를 송신하기 시작하면, 서버 장치(70)는 그 화상 데이터를, 속도가 지정된 표시 장치(40) 또는 촬상/표시 장치(1)에 전송한다.
속도가 지정된 촬상/표시 장치(1) 또는 표시 장치(40)는,서버 장치(70)로부터 송신된 화상 데이터를 수신하고, 수신된 화상 데이터를 표시한다.
전술한 식으로, 유저 A, B, C, D 및 F는, 속도를 지정함으로써, 지정된 속도로 이동하는 촬상 장치 또는 촬상/표시 장치에 의해 실제로 촬상되고 있는 광경을 볼 수 있다.
후술하는 시스템 동작 예 I에서는,촬상/표시 장치(1) 또는 표시 장치(40)의 유저는, 속도뿐만 아니라 위치도 지정하는 것으로 상정한다.
다음에, 시스템 동작 예 II의 경우에 있어서, 유저 E가 장착하는 촬상 장치(30)나, 이동체 G 및 H에 탑재된 촬상 장치(30)는, 항상, 정기적, 혹은 임의의 타이밍에서, 네트워크(60)를 통해 서버 장치(70)에 촬상하여 얻어진 화상 데이터 및 적어도 촬상 시의 속도를 나타내는 속도 정보를 포함하는 부가 데이터를 업로드한다.
유저 A, B 및 C가 장착하고 있는 촬상/표시 장치(1) 각각도, 항상, 정기적, 혹은 임의의 타이밍에서, 네트워크(60)를 통해 서버 장치(70)에 촬상하여 얻어진 화상 데이터 및 적어도 촬상 시의 속도를 나타내는 속도 정보를 포함하는 부가 데이터를 업로드할 수 있다.
서버 장치(70)는, 촬상/표시 장치(1) 및 촬상 장치(30)의 각각에 의해 업로드된 화상 데이터 및 부가 데이터를 후술하는 속도 화상 데이터베이스에 등록해서 저장한다.
한편,우저의 속도 지정에 따라, 유저 A, B 및 C가 장착하고 있는 촬상/표시 장치(1)나, 유저 D 및 F가 사용하는 표시 장치(40) 각각은 네트워크(60)를 통해 서버 장치(70)에 액세스하고, 지정 속도를 나타내는 속도 지정 정보를 서버 장치(70)에 송신해서 화상 요구를 행한다.
서버 장치(70)는 속도 지정 정보에 기초해서 속도 화상 데이터베이스를 검색하여 속도 지정 정보가 나타내는 지정 속도로 이동하는 촬상 장치 또는 촬상/표시 장치가 촬상한 화상의 화상 데이터를 추출한다. 이후, 서버 장치(70)는 추출된 화상 데이터를, 촬상/표시 장치(1) 또는 표시 장치(40)에 송신한다.
촬상/표시 장치(1) 또는 표시 장치(40)는,서버 장치(70)로부터 송신된 화상 데이터를 수신하고, 수신된 화상 데이터를 표시한다.
전술한 식으로, 유저 A, B, C, D 및 F는, 지정한 속도로 이동하는 촬상 장치 또는 촬상/표시 장치가 과거에 실제로 촬상한 광경을 볼 수 있다.
후술하는 시스템 동작 예 II에서는,촬상/표시 장치(1) 또는 표시 장치(40)의 유저는, 속도뿐만 아니라 위치도 지정하는 것으로서 상정한다.
[3. 촬상/표시 장치, 촬상 장치, 표시 장치 및 서버 장치의 구성 예]
촬상/표시 장치(1), 촬상 장치(30), 표시 장치(40), 서버 장치(70)의 각 구성 예를 도 4 내지 8을 참조해서 이하 설명한다.
우선, 도 4를 참조하여, 촬상/표시 장치(1)의 구성 예를 설명한다.
시스템 콘트롤러(10)는, 예를 들면, CPU(Central Processing Unit), ROM(Read Only Memory), RAM(Random Access Memory), 불휘발성 메모리부, 인터페이스부를 구비한 마이크로컴퓨터로 구성되어 있으며, 촬상/표시 장치(1)의 전체를 제어한다. 이 시스템 콘트롤러(10)는 내부의 ROM 등에 유지한 프로그램에 기초하여, 각종 연산 처리를 행하고 버스(13)를 통해 촬상/표시 장치(1)의 각 부와 제어 신호등을 교환하여, 촬상/표시 장치(1)의 각 부가 필요한 동작을 실행하게 한다.
촬상/표시 장치(1)는,유저의 시계 방향의 광경을 촬상하기 위한 구성으로서, 촬상부(3)를 포함하고 있다.
촬상부(3)는 촬상 광학계, 촬상 소자부, 촬상 신호처리부를 구비하고 있다.
촬상부(3)에 있어서의 촬상 광학계는,도 1에 나타낸 촬상 렌즈(3a), 조리개, 줌렌즈, 포커스 렌즈 등으로 구성되는 렌즈계; 렌즈계에 대하여 포커스 동작이 나 줌 동작을 행하게 하기 위한 구동계 등을 구비할 수 있다.
촬상부(3)에 있어서의 촬상 소자부에는,촬상 광학계로 얻을 수 있는 촬상 광을 검출하고, 검출한 광을 광전변환을 행함으로써 촬상 신호를 생성하는 고체촬상 소자 어레이가 설치된다. 고체 촬상 소자 어레이는, 예를 들면, CCD(Charge Coupled Device) 센서 어레이나, CMOS(Complementary Metal Oxide Semiconductor) 센서 어레이이다.
촬상부(3)에 있어서의 촬상 신호처리부는,고체 촬상 소자에 의해 얻을 수 있는 신호에 대한 게인 조정과 파형 정형을 행하는 샘플 홀드/AGC(Automatic Gain Control) 회로 및 비디오 A/D 컨버터를 구비하고,디지털 형태로 촬상 화상 데이터를 얻는다. 촬상 신호처리부는 또한 촬상 화상 데이터에 대하여 화이트 밸런스 처리, 휘도처리, 색 신호처리, 흔들림 보정 처리 등을 행한다.
전술한 촬상 광학계, 촬상 소자부 및 촬상 신호처리부를 가지는 촬상부(3)에 의해, 촬상이 행해지므로, 촬상에 의한 화상 데이터를 얻을 수 있다.
시스템 콘트롤러(10)는, 이 촬상부(3)에 있어서의 촬상 동작의 온/오프 제어, 촬상 광학계의 줌렌즈, 포커스 렌즈의 구동 제어, 촬상 소자부의 감도와 프레임 레이트 제어, 촬상 신호처리부의 각 처리의 파라미터와 실행 처리의 설정 등을 행한다.
촬상부(3)의 촬상 동작에 의해 얻을 수 있은 촬상 화상 데이터는, 화상처리부(15)를 통해서 표시부(2), 저장부(25), 또는 통신부(26)에 공급될 수 있다.
화상처리부(15)는, 시스템 콘트롤러(10)의 제어하에, 촬상 화상 데이터를 소정의 화상 데이터 포맷으로 변환하는 처리, 및 모니터링을 위해 화상 데이터가 표시부(2)에 표시되게 하는데 필요한 신호처리를 행한다. 화상 데이터가 표시부(2)에 표시되도록 하는 신호처리의 예는, 휘도 레벨 조정; 색보정; 콘트라스트 조정; 샤프니스(윤곽강조) 조정; 화면 분할 처리; 캐릭터 화상의 합성 처리; 확대 또는 축소 화상의 생성; 및 모자이크 화상, 휘도 반전 화상, 소프트 포커스, 화상 내의 일부의 강조 표시, 화상 전체의 색의 분위기 가변 등의 화상 이펙트 처리를 포함한다.
화상처리부(15)는 또한 촬상부(3), 표시부(2), 저장부(25), 통신부(26)의 간의 화상 데이터의 전송 처리도 행한다. 구체적으로, 화상처리부(15)는 촬상부(3)로부터의 촬상 화상 데이터를 표시부(2), 저장부(25), 또는 통신부(26)에 공급하는 처리나, 저장부(25)로부터 읽어낸 화상 데이터를 표시부(2)에 공급하는 처리나, 통신부(26)가 수신한 화상 데이터를 표시부(2)에 공급하는 처리도 행한다.
촬상/표시 장치(1)는 유저에게 표시를 제공하는 구성으로서 표시부(2)를 구비하고 있다. 표시부(2)에는 액정 패널로 형성된 전술한 표시 패널부(2a 및 2b)와, 표시 패널부(2a 및 2b)를 표시 구동하는 표시 구동부가 설치된다.
표시 구동부는, 화상처리부(15)로부터 공급되는 화상 신호를, 예를 들면, 액정 디스플레이로서 형성되는 표시 패널부(2a 및 2b)에 표시시키기 위한 화소 구동 회로로 형성되어 있다. 즉, 표시 구동부는 표시 패널부(2a 및 2b)에 있어서 매트릭스 형상으로 배치되어 있는 각 화소에 소정의 수평/수직 구동 타이밍에서 영상신호에 기초하여 구동 신호를 인가하여 표시를 실행시킨다. 이 처리 결과로서, 촬상부(3)에 의해 촬상된 화상, 저장부(25)로부터 판독된 화상 데이터의 화상, 또는 통신부(26)가 수신한 화상 데이터의 화상은 표시 패널부(2a 및 2b)에 표시된다.
또한, 표시 구동부는, 표시 패널부(2a 및 2b)의 각 화소의 투과율을 제어하여 이 화소가 비치는 상태(즉, 투명 또는 반투명의 상태)가 되도록 할 수 있다.
시스템 콘트롤러(10)는, 이 표시부(2)에 있어서의 표시 동작의 온/오프 (비치는)제어, 표시되는 화상 데이터에 대한 처리 파라미터의 사양(specification), 화면 영역 설정 제어, 캐릭터의 발생 지시 등을 행한다.
촬상/표시 장치(1)는 또한 음성 입력부(6), 음성처리부(16), 음성 출력부(5)를 구비한다.
음성 입력부(6)는, 도 1에 도시된 마이크로폰(6a 및 6b), 마이크로폰(6a 및 6b)에서 얻을 수 있은 음성신호를 증폭 처리하는 마이크 앰프부 및 A/D 변환기를 구비하고 있으며,음성 데이터를 출력한다.
음성 입력부(6)로 얻을 수 있은 음성 데이터는 음성처리부(16)에 공급된다.
음성처리부(16)는, 시스템 콘트롤러(10)의 제어하에, 음성 데이터의 전송을 제어한다. 구체적으로, 음성처리부(16)는 음성 입력부(6)로 얻을 수 있은 음성 데이터를, 음성 출력부(5), 저장부(25), 또는 통신부(26)에 공급한다. 음성처리부(16)는 또한 저장부(25)로부터 판독한 음성 데이터나, 통신부(26)가 수신한 음성 데이터를 음성 출력부(5)에 공급한다.
음성처리부(16)는 또한, 시스템 콘트롤러(10)의 제어하에, 음량제어, 음질제어, 음향 이펙트 등의 처리를 행한다.
음성 출력부(5)는 도 1의 한 쌍의 이어폰 스피커(5a), 이어폰 스피커(5a)에 대한 앰프 회로 및 D/A 변환기를 구비하고 있다.
즉, 음성처리부에서 공급된 음성 데이터는 D/A 변환기에 의해 아날로그 음성신호로 변환되고, 앰프 회로에 의해 증폭되어서 이어폰 스피커(5)를 통해 음성으로 출력된다. 이에 따라, 유저는 외부음성을 듣거나, 저장부(25)로부터 판독한 음성 데이터나 통신부(26)가 수신한 음성 데이터에 의한 음성을 들을 수 있다.
음성 출력부(5)는 소위 골전도 스피커(bone conduction speaker)를 이용할 수도 있다.
저장부(25)는 소정의 기록 매체에 대하여 화상 데이터 (및 음성 데이터)의 기록 및 판독을 행하는 부위다. 예를 들면, 저장부(25)는 HDD(Hard Disk Drive)로 형성된다. 물론, 기록 매체로서는, 플래시 메모리 등의 고체 메모리, 고체 메모리를 내장한 메모리 카드, 광 디스크, 광 자기 디스크, 홀로그램 메모리 등 각종 저장 매체를 채택할 수 있다. 저장부(25)를 위한 필요조건은 채용되는 기록 매체에 따라서 기록 및 판독을 실행할 수 있는 것이라야 한다.
저장부(25)는, 시스템 콘트롤러(10)의 제어하에, 촬상에 의해 얻을 수 있는 화상 데이터 (및 음성 데이터)나, 통신부(26)가 수신한 화상 데이터 (및 음성 데이터)를 기록 매체에 기록한다. 구체적으로, 저장부(25)는 화상처리부(15)를 통해서 공급되는 화상 데이터나 음성처리부(16)를 통해서 공급되는 음성 데이터, 혹은 통신부(26)가 수신한 화상 데이터 및 음성 데이터에 대하여, 기록 매체에의 기록을 위한 인코드 처리를 행하고, 인코딩된 데이터를 기록 매체에 기록한다.
또한, 저장부(25)는, 시스템 콘트롤러(10)의 제어하에, 기록한 화상 데이터 및 음성 데이터를 읽어낼 수 있다. 읽어낸 화상 데이터는 화상처리부(15)를 통해서 표시부(2)에 공급되고, 읽어낸 음성 데이터는 음성처리부(16)를 통해서 음성 출력부(5)에 공급된다. 또한 읽어낸 화상 데이터/음성 데이터를, 외부기기에 송신되는 데이터로서 통신부(26)에 공급할 수도 있다.
통신부(26)는 도 3의 네트워크(60)를 통해서 외부기기, 특히 서버 장치(70) 간에 데이터의 송수신을 행한다.
통신부(26)는, 무선 LAN, 블루투스 등의 방식에 따라서, 네트워크 액세스 지점에 대한 근거리 무선 통신을 통해서 네트워크 통신을 행하는 구성일 수도 있다.
촬상부(3)로 얻을 수 있은 촬상 화상 데이터는 화상처리부(15)를 통해서 통신부(26)에 공급된다. 또한, 음성 입력부(6)로 얻을 수 있은 음성 데이터는 음성처리부(16)를 통해서 통신부(26)에 공급된다. 통신부(26)는 이 화상 데이터 및 음성 데이터에 대해서 통신용의 인코드 처리를 행하고, 무선 송신을 위해 인코드된 데이터를 변조하고, 변조된 데이터를 외부기기에 송신할 수 있다. 즉, 통신부(26)는 촬상하고 집음하여 촬상/표시 장치(1)에서 현재 얻은 화상 데이터 및 음성 데이터를 외부기기(예를 들어, 서버 장치 70)에 송신할 수 있다.
또한,통신부(26)는 저장부(25)로부터 읽어낸 화상 데이터 및 음성 데이터에 대해서 통신용의 인코드 처리를 행하고, 무선송신을 위해 인코드된 데이터를 변조하고, 변조된 데이터를 외부기기에 송신할 수도 있다.
후술하는 시스템 동작 예 I인 경우에는,화상 데이터/음성 데이터의 송신 이외에도, 시스템 콘트롤러(10)는 항상, 정기적 혹은 소정의 타이밍에서, 후술하는 속도 검출부(17)에 의해 검출되는 현재 속도 정보나, 위치 검출부(12)에 의해 검출되는 현재 위치 정보를, 카메라 ID와 함께 통신부(26)로부터 서버 장치(70)에 송신하는 처리를 행한다. 카메라 ID는 기기에 고유하게 할당된 식별 정보이며, 해당 시스템상에서 특정 촬상/표시 장치(1) 또는 촬상 장치(30)를 특정하는데 이용될 수 있는 코드이다. 카메라 ID는, 예를 들면, 시스템 콘트롤러(10)의 내부의 불휘발성 메모리 등에 보존될 수 있다.
화상 데이터/음성 데이터의 송신은, 서버 장치(70)로부터 화상 요구가 수신되었을 때 행하게 된다.
후술하는 시스템 동작 예 II인 경우에는,촬상 및 집음에 의해 촬상/표시 장치(1)에서 현재 얻은 화상 데이터/음성 데이터가 예를 들면 서버 장치(70)에 송신되는 때에, 시스템 콘트롤러(10)는 부가 데이터를 생성하고, 통신부(26)가 부가 데이터를 화상 데이터/음성 데이터와 함께 인코드시켜 송신하도록 한다. 부가 데이터는, 화상 데이터의 관리 정보나, 후술하는 속도 검출부(17)에 의해 검출되는 현재 속도 정보, 위치 검출부(12)에 의해 검출되는 현재 위치 정보, 및 일/시 계수부(28)에 의해 계수되어 있는 현재 일/시 정보를 포함한다.
다른 가능한 동작은 촬상 및 집음에 의해 얻은 화상 데이터/음성 데이터를 저장부(25)에 일단 기억하고, 후의 시점에서 저장되어 있는 화상 데이터/음성 데이터를 저장부(25)로부터 판독하고, 판독한 화상 데이터/음성 데이터를 통신부(26)를 통해 서버 장치(70)에 송신하는 동작이다. 이 동작의 경우, 시스템 콘트롤러(10)는, 화상 데이터/음성 데이터를 저장부(25)에 기억할 때에, 앞서 언급한 정보들을 포함하는 부가 데이터를 생성하고, 화상 데이터/음성 데이터와 함께 부가 데이터를 저장부(25)가 기록하도록 한다. 기록한 화상 데이터/음성 데이터를 저장부(25)로부터 판독하여 서버 장치(70)에 송신하는 때는, 함께 기록되어 있는 부가 데이터도 서버 장치(70)에 송신되게 된다.
시스템 콘트롤러(10)가 이러한 처리를 행함으로써 서버 장치(70)에 화상 데이터/음성 데이터를 송신하는 때는, 화상을 촬상해서 화상 데이터를 얻은 위치를 나타내는 위치 정보와 화상 데이터/음성 데이터가 얻어진 시점의 일/시를 나타내는 일/시 정보도 서버 장치(70)에 송신되게 된다.
또한, 통신부(26)는 외부기기(서버 장치 70)로부터 송신되어 온 화상 데이터/음성 데이터를 수신하고, 수신된 화상 데이터/음성 데이터를 복조해서 복조된 화상 데이터/음성 데이터를 화상처리부(15) 및 음성처리부(16)에 공급한다. 이 경우, 표시부(2)와 음성 출력부(5)를 통해서, 수신한 화상 및 음성이 각각 출력된다.
물론, 통신부(26)가 수신한 화상 데이터/음성 데이터는 저장부(25)에 공급되어 기록 매체에 기록될 수 있다.
촬상/표시 장치(1)는 또한 조명부(4)와 조명 제어부(18)를 구비한다. 조명부(4)는 도 1에 나타낸 발광부(4a)와 그 발광부(4a)(예를 들면, LED)를 발광시키는 발광 회로로 이루어진다. 조명 제어부(18)는 시스템 콘트롤러(10)의 지시에 기초하여 조명부(4)에 발광 동작을 실행시킨다.
조명부(4)에 있어서의 발광부(4a)가 도 1에 도시한 식으로 촬상/표시 장치(1)에 부착되어 있기 때문에, 조명부(4)는 촬상 렌즈(3a)가 화상을 촬상하는 방 향으로 조명을 제공한다.
촬상/표시 장치(1)는 유저의 조작을 위한 조작 입력부(11)를 더 구비하고 있다.
조작 입력부(11)는 키, 다이얼 등의 조작 유닛을 구비할 수 있고 키 조작과 같은 유저 조작을 검출할 수 있게 구성될 수 있다. 혹은, 조작 입력부(11)는 유저의 의식적인 거동을 검출하도록 구성될 수도 있다.
조작 입력부(11)가 조작 유닛(들)을 구비하는 경우에, 조작 유닛(들)은 전원 온/오프 조작, 촬상계의 조작(예를 들면, 줌 조작, 신호처리에 관련된 조작 등), 표시 관련 조작(예를 들면, 표시 내용의 선택, 표시 제어 조작 등), 및 후술하는 외부장치의 지정을 위한 조작에 이용하는 조작 유닛을 포함할 수 있다.
조작 입력부(11)가 유저의 거동을 검지하는 구성으로 되어 있는 경우에는, 가속도 센서, 각속도 센서, 진동 센서, 압력 센서 등을 조작 입력부(11)에 설치할 수 있다.
예를 들면, 측면으로부터 촬상/표시 장치(1)를 유저가 가볍게 두드리는 액션은 가속도 센서, 진동 센서 등으로 검출될 수 있다. 이와 같이, 시스템 콘트롤러(10)는 예를 들면 가로방향의 가속도가 일정 값을 초과했을 때에 유저의 조작이 있다고 판단할 수 있다. 또한,가속도 센서나 각속도 센서 등은 유저가 우측으로부터 또는 좌측으로부터 촬상/표시 장치(1)의 측부(안경의 측면부에 상당하는 부분)를 두드렸는지 여부를 검출하는데 이용될 수 있고, 시스템 콘트롤러(10)는 유저의 이들 액션 각각을 소정의 조작으로서 간주할 수 있다.
또한, 유저가 머리를 돌리거나 흔드는 액션은 가속도 센서나 각속도 센서에 의해 검출된다. 시스템 콘트롤러(10)는 이러한 유저의 액션 각각을 유저의 조작으로서 간주할 수 있다.
또한,예를 들어, 촬상/표시 장치(1)의 좌우의 측부(안경의 측면부에 상당하는 부분)에는 압력 센서를 배치할 수 있다. 이때, 시스템 콘트롤러(10)는 유저가 촬상/표시 장치(1)의 우측부를 손가락으로 눌렸을 때는 망원 사진 줌 조작을 유저가 실행하였다고 판정하고, 유저가 촬상/표시 장치(10)의 좌측부를 손가락으로 눌렸을 때는 광각 줌 조작을 유저가 실행하였다고 판정할 수 있다.
또한, 조작 입력부(11)에는 유저의 생체정보를 검출하는데 이용되는 생체 센서를 설치할 수 있다. 이 경우에, 검출된 생체정보는 조작 입력이라고 인식될 수 있다. 생체정보의 예는 맥박수, 심박자수, 심전도정보, 일렉트로마이오그래픽 정보, 호흡 정보(예를 들면, 호흡의 속도, 호흡의 깊이, 환기량 등), 발한, GSR(피부전기반응), 혈압, 혈중 산소포화 농도, 피부표면온도, 뇌파(예를 들면, α파, β파, θ파, 및 δ파의 정보), 혈액 순환변화, 및 눈의 상태를 포함한다.
이후, 시스템 콘트롤러(10)는 생체 센서가 검출한 정보를 유저의 조작 입력으로서 인식할 수 있다. 유저의 의식적인 거동의 한 예는 눈의 움직임(시선 방향의 변화나 깜빡거림 등)이다. 예를 들어, 유저가 3회 깜빡거리기를 한 것이 검출되면, 시스템 콘트롤러(10)는 이러한 액션을 특정한 조작 입력이라고 간주할 수 있다. 또한, 예를 들어, 검출한 생체정보에 기초하여 유저가 촬상/표시 장치(1)를 착용한 것이나 벗은 것, 혹은 특정한 유저가 촬상/표시 장치(1)를 착용하였음을 검출할 수 있다. 따라서, 시스템 콘트롤러(10)는, 예를 들어, 그러한 액션의 검출에 응답해서 촬상/표시 장치(1)의 전원 온/오프를 행할 수 있다.
조작 입력부(11)는 전술한 조작 유닛(들), 가속도 센서, 각속도 센서, 진동 센서, 압력 센서, 생체 센서 등으로 얻을 수 있는 정보를 시스템 콘트롤러(10)에 공급한다. 시스템 콘트롤러(10)는 공급받은 정보에 기초하여 유저의 조작을 검출한다.
촬상/표시 장치(1)는 속도 검출부(17)를 더 구비한다. 속도 검출부(17)는 촬상/표시 장치(1)를 장착한 유저의 이동 속도(즉, 유저의 보행이나 주행의 속도)를 검출한다. 물론, 유저가 정지하는 동안, 유저의 이동 속도는 0이다. 속도 검출부(17)는, 예를 들면, 가속도 센서 등을 이용해서 유저의 이동 속도를 검출할 수 있다. 대안으로, 속도 검출부(17)는 촬상부(3)가 촬상한 주위의 화상을 해석해서 유저의 이동 속도를 산출할 수도 있다.
촬상/표시 장치(1)는 위치 검출부(12)를 더 구비한다. 위치 검출부(12)는, 예를 들면, GPS 수신부이다. GPS 수신부는, GPS(Global Positioning System) 위성으로부터의 전파를 수신하고, 현재 위치의 위도 및 경도의 정보를 시스템 콘트롤러(10)에 출력한다.
위치 검출부(12)는, Wi-Fi(Wireless Fidelity)나 휴대 전화회사가 제공하는 위치 정보 서비스를 이용해도 되고, 아니면 그러한 서비스와 GPS를 조합을 이용할 수도 있다.
검출된 현재 위치는 속도 검출부(17)에 의해 검출된 속도를 이용해서 보정할 수 있다.
촬상/표시 장치(1)는 일/시 계수부(28)를 더 포함할 수 있다. 일/시 계수부(28)는 현재 일시(연, 월, 일, 시, 분, 초)를 계수한다. 시스템 콘트롤러(10)는 일/시 계수부(28)에 의해 계수된 값에 기초하여 현재 일/시를 인식할 수 있다.
시스템 동작 예 I의 경우에는, 속도 검출부(17)에 의해 검출된 이동 속도와, 위치 검출부(12)에 의해 검출된 현재 위치 정보가, 정기적 혹은 소정의 타이밍에서, 통신부(26)를 통해 서버 장치(70)에 송신된다.
시스템 동작 예 II의 경우에는, 촬상/음성 데이터 및 부가 데이터가 서버 장치(70)에 전송될 때, 이 부가 데이터는 속도 검출부(17)에 의해 검출된 속도 정보(전송되는 화상 데이터가 촬상에 의해 얻어질 때의 유저의 이동 속도를 나타내는 속도 정보), 위치 검출부(12)에 의해 검출된 위치 정보(전송되는 화상 데이터가 촬상에 의해 얻어질 때의 유저의 위치를 나타내는 위치 정보) 및 일/시 계수부(28)에 의해 얻어진 일/시 정보(전송되는 화상 데이터가 촬상에 의해 얻어질 때의 일/시를 나타내는 일/시 정보)를 포함한다.
촬상/표시 장치(1)는 표시부(2)에 지도 화상을 표시할 수 있다. 지도 화상을 표시하기 위해서, 촬상/표시 장치(1)는 지도 데이터베이스(29)를 더 구비한다. 저장부(25)가, 예를 들어, HDD 등에 의해 형성되는 경우에, 지도 데이터베이스(29)는 HDD 등의 일부 영역에 저장된다.
지도 데이터베이스(29)는 소위 내버게이션 시스템과 같이 지도를 표시하는데 이용되는 정보로서, 위치 정보에 대응한 지도 화상의 생성을 위한 정보, 지점들의 명칭 등의 부가적인 정보, 검색 정보 등을 포함하는 데이터베이스이다.
시스템 콘트롤러(10)는 지도 데이터베이스(29)를 이용하여 적절한 지도검색 및 지도표시 처리를 실행할 수 있다.
촬상 장치(30)의 구성을 도 5를 참조하여 이하 설명한다. 도 5에서, 도 4와 동일 부분은 동일부호를 붙여서 중복 설명을 피한다. 도 5에 도시된 촬상 장치(30)는 화상을 출력하기 위한 표시부(2), 음성을 출력하기 위한 음성 출력부(5), 또는 지도를 표시하는데 이용되는 지도 데이터베이스(29)를 포함하고 있지 않다는 점에 있어서 도 4에 도시된 촬상/표시 장치(1)와 다르다.
즉, 촬상 장치(30)는, 도 2와 같이 유저가 장착하거나, 전술한 바와 같이 각종의 이동체에 장착된 상태에서,촬상부(3)에 의한 촬상을 행하고, 촬상 화상 데이터를 통신부(26)를 통해 외부장치로 송신하거나, 촬상 화상 데이터를 저장부(25)에 기록할 수 있다.
시스템 콘트롤러(10)는 촬상 동작, 통신 동작, 기록 동작 등을 제어한다.
촬상 장치(30)가 자동차나 철도차량, 선박, 또는 항공기 등과 같은 이동체에 장착되는 경우에, 이동체에 설치되어 있는 속도 검출 기구는 속도 검출부(17)로서 이용될 수 있다.
표시 장치(40)의 구성예는 도 6을 참조하여 이하 설명된다. 도 6에서, 도 4와 동일부분은 동일부호를 붙여서 중복 설명을 피한다. 도 6에 도시된 표시 장치(40)는 촬상을 위한 촬상부(3)와 음성 입력을 위한 음성 입력부(6)를 포함하고 있지 않는다는 점에 있어서 도 4에 도시된 촬상/표시 장치(1)와 다르다. 또한, 표시 장치(40)에는 촬상을 위한 보조가 되는 조명부(4) 또는 조명 제어부(14)가 설치 되어 있지 않다. 또한, 표시 장치(40)에는 속도 검출부(17)가 설치될 필요가 없다.
표시 장치(40)는 서버 장치(70)에 화상 데이터/음성 데이터를 송신할 수 있게 설계되지 않았기 때문에, 표시 장치(40)에는 서버 장치(70)에 송신되는 위치 정보, 또는 일시 정보를 생성하기 위한 위치 검출부(12) 또는 일/시 계수부(28)가 설치될 필요가 없다.
물론, 시스템 콘트롤러(10)는 화상 데이터/음성 데이터의 서버 장치(70)에의 송신 제어 처리를 실행하는 기능을 갖지 않아도 좋다.
표시 장치(40)는 도 2b에 제시된 바와 같은 식으로 유저가 장착하거나, 혹은 유저가 소지하거나, 혹은 유저가 집이나 자동차 등에 설치하는 기기이다. 표시 장치(40)는 외부장치(서버 장치 70)로부터 송신된 화상 데이터/음성 데이터를 통신부(26)를 통해 수신한다. 이후, 표시 장치(40)는 수신된 화상 데이터/음성 데이터를 표시부(2) 및 음성 출력부(5)를 통해 출력하거나, 수신된 화상 데이터/음성 데이터를 저장부(25)에 기록한다.
시스템 콘트롤러(10)는 통신 동작, 표시 동작, 음성 출력 동작, 기록 동작 등을 제어한다.
표시 장치가 집 등에 고정적으로 설치하는 경우에, 통신부(26)는 유선접속을 통해서 네트워크 통신을 행하는 구성일 수도 있다.
도 2a에 도시된 바와 같은 촬상 장치(30)와 도 2b에 도시된 바와 같은 표시 장치(40)는, 도 3에 도시된 유저 F가 행하는 바와 같이, 동일한 유저가 이용할 수 있으므로, 촬상 장치(30)와 표시 장치(40)는 결합되어 촬상/표시 장치(1)의 기능들과 유사한 기능을 실행할 수 있다.
이 경우, 촬상 장치(30)와 표시 장치(40)는 도 7에 도시된 바와 같은 구성을 가질 수 있다.
도 7의 구성예에서는,촬상 장치(30)는 촬상 장치(30)가 표시부(2)를 갖추고 있지 않지만 대신에 송신부(27)를 갖추고 있다는 점을 제외하고는 도 4에 도시된 촬상/표시 장치(1)의 구조와 실질적으로 동일한 구조를 취하고 있다.
송신부(27)는 화상 데이터가 표시 장치(40)에 송신될 수 있도록 화상처리부(15)로부터 공급되는 화상 데이터를 모니터링용으로 표시되는 화상 데이터로서 인코드한다. 이후, 송신부(27)는 인코드된 화상 데이터를 표시 장치(40)에 송신한다.
표시 장치(40)는 수신부(41), 표시 제어부(42) 및 표시부(2)를 구비하고 있다.
수신부(41)는 촬상 장치(30) 내의 송신부(27)와 데이터 통신을 실행한다. 수신부(41)는 촬상 장치(30)로부터 송신된 화상 데이터를 수신하고 수신된 화상 데이터를 디코드한다.
수신부(41)에 의해 디코드된 화상 데이터는 표시 제어부(42)에 공급된다. 표시 제어부(42)는 화상 데이터에 대해서 표시를 위한 신호처리나 화면분할, 캐릭터 합성 등의 처리를 행하여 표시용의 화상 신호를 생성하고, 생성된 화상 신호를 액정 디스플레이와 같은 표시 패널부(2a)를 갖고 있는 표시부(2)에 공급한다.
표시부(2)는,표시용의 화상 신호에 따라서, 표시 패널부(2a)에 매트릭스로 배열된 화소에 소정의 수평/수직구동 타이밍에서 영상신호에 기초하여 구동 신호를 인가하여, 표시를 실행한다.
촬상 장치(30)와 표시 장치(40)가 상기와 같은 구성으로 되어 있을 때, 도 3의 유저 F와 같이 촬상 장치(30)와 표시 장치(40)를 장착한 유저가 두 장치들을, 촬상/표시 장치(1)가 사용되는 방식과 마찬가지로 사용할 수 있다.
서버 장치(70)의 구성예를 도 8을 참조하여 이하 설명한다.
서버 장치(70)는 서버 제어부(72), 네트워크 저장부(71), 통신부(73), 카메라 위치/속도 관리부(74), 및 지도 데이터베이스(75)를 구비한다.
네트워크 저장부(71)는 예를 들면 HDD 등에 의해 실현되어, 화상 데이터나 음성 데이터의 버퍼링이나 저장에 이용되거나, 각종 정보의 보존에 이용된다. 시스템 동작 예 II의 경우에는, 네트워크 저장부(71)에는 후술하는 속도 화상 데이터베이스가 저장된다. 도 12를 참조하여 후술하는 바와 같이, 속도 화상 데이터베이스는 촬상 장치(30) 또는 촬상/표시 장치(1)로부터 네트워크(60)를 통해서 수신된 화상 데이터/음성 데이터 및 부가 데이터를 축적한 데이터베이스이다.
통신부(73)는 촬상/표시 장치(1), 촬상 장치(30), 표시 장치(40)의 통신부(26) 간에 네트워크(60)를 통한 데이터통신을 행한다.
서버 제어부(72)는 서버 장치(70)로서의 필요한 동작 제어를 행한다. 구체적으로, 서버 제어부(72)는 촬상/표시 장치(1), 촬상 장치(30), 표시 장치(40) 간의 통신 동작이나, 화상 데이터/음성 데이터의 네트워크 저장부(71)에의 저장 처리, 검색 처리 등을 제어한다.
카메라 위치/속도 관리부(74) 및 지도 데이터베이스(75)는 후술하는 시스템 동작 예 I를 실시하는 경우에 필요한 구성요소이다. 카메라 위치/속도 관리부(74)는 촬상/표시 장치(1) 또는 촬상 장치(30)의 (즉,촬상 장치(30) 또는 촬상/표시 장치(1)를 탑재한 이동체의) 현재의 위치 및 속도의 관리나 검색 등의 처리를 행한다. 구체적으로, 카메라 위치/속도 관리부(74)는 촬상/표시 장치(1) 및 촬상 장치(30)로부터 규칙적으로 송신된 속도 정보 및 위치 정보를, 예를 들면, 후술하는 도 10의 카메라 위치/속도관리 테이블 등을 이용해서 관리한다. 또한, 카메라 위치/속도 관리부(74)는 지도 데이터베이스(75)에 저장되어 있는 지도 정보와 대조하여, 촬상/표시 장치(1) 및 촬상 장치(30)의 현재 위치를 좀더 자세하게 관리할 수도 있다.
이와 같이 촬상/표시 장치(1), 촬상 장치(30), 표시 장치(40) 및 서버 장치(70)의 구성을 나타냈지만, 이들 구조의 각각은 일례에 지나지 않는다. 물론, 실제의 시스템 동작이나 기능에 따라서 각종의 구성 요소의 추가나 삭제도 가능하다. 촬상 장치(30) 또는 촬상/표시 장치(1)가 탑재(장착)되는 이동체의 종류나, 표시 장치(40)의 형태(예를 들면, 손목 시계형, 휴대형, 거치형 등)에 따라서 촬상 장치(30), 촬상/표시 장치(1) 및 표시 장치(40)의 구조를 적절히 달리할 수 있음은 물론이다.
[4. 시스템 동작 예I]
이하, 본 실시 형태에 따른 시스템 동작 예에 대해서 설명한다.
이하의 설명에서는,"장치 A" 및 "장치 B"라고 하는 명칭을 이용한다.
"장치 A"는 도 3에 도시된 바와 같이 촬상/표시 장치(1) 또는 표시 장치(40)를 가리킨다. "장치 B"는 도 3에 도시된 바와 같이 촬상/표시 장치(1) 또는 촬상 장치(30)를 가리킨다.
즉, "장치 A"는 어떤 유저가 사용하고 있는 기기를 나타내며, 다른 이동체에서 촬상된 화상을 서버 장치(70)로부터 수신해서 표시하는 기기이며, 본 발명 청구항에서 말하는 "표시 장치"에 해당하는 기기이다.
한편,"장치 B"는 서버 장치(70)에 화상을 송신하는 기기이며, 사람, 생물, 차량, 그 밖의 전술한 이동체에 장착/탑재되는 기기이며, 본 발명 청구항에서 말하는 "촬상 장치"에 해당하는 기기이다.
시스템 동작 예 I를 도 9 및 10을 참조하여 설명한다.
시스템 동작 예 I에서, 장치 B(즉, 촬상 장치(30) 또는 촬상/표시 장치(1))에 의해 실시간으로 촬상된 화상 데이터는 서버 장치(70)를 통해서 장치 A(즉, 표시 장치(40) 또는 촬상/표시 장치(1))에 전송된다.
이 경우, 서버 장치(70)는 카메라 위치/속도 관리부(74)를 이용하여 각 장치 B(즉, 장치 B를 탑재한 각 이동체)의 이동 속도와 현재 위치를 항상 파악한다. 그렇게 하면, 장치 A측으로부터 속도 지정 정보 및 위치 지정 정보를 접수했을 때에, 서버 장치(70)는 속도 지정 정보 및 위치 지정 정보에 기초해서 원하는 장치 B를 특정할 수 있다. 서버 장치(70)는 특정된 장치 B에게 화상 데이터 송신을 요구한다. 장치 B에 의해 촬상된 화상 데이터의 송신이 개시되면, 서버 장치(70)는 그 화상 데이터를 장치 A측에 전송한다. 장치 A는 서버 장치(70)로부터 화상 데이터를 수신하여 수신된 화상 데이터를 표시한다. 그 결과, 장치 A의 유저는 지정한 위치에서 지정한 속도로 이동하는 장치 B에 의해 촬상된 현재의 광경의 표시 화상을 볼 수 있다.
도 9는 장치 A(즉, 촬상/표시 장치(1) 또는 표시 장치(40))의 시스템 콘트롤러(10)의 처리와, 서버 장치(70)의 서버 제어부(72)의 처리와, 장치 B(즉, 촬상/표시 장치(1) 또는 촬상 장치(30))의 시스템 콘트롤러(10)의 처리를 나타내고 있다.
먼저, 스텝 F100에서는, 장치 A의 부분에서, 지도 화상을 이용한 위치 지정 처리와 속도 지정 처리를 행한다.
예를 들면, 우선, 장치 A의 시스템 콘트롤러(10)는 위치 지정을 위한 준비로서 표시부(2)에 지도 데이터베이스(29)의 데이터를 이용해서 지도표시를 행한다. 시스템 콘트롤러(10)는, 유저의 조작에 따라서, 지도상의 특정 지역의 검색이나 스크롤 등도 행한다. 이에 의해,유저는 특정한 지방 또는 지역의 지도 화상을 표시부(2)로 볼 수 있다.
예를 들면, 유저가 지명이나 축척을 지정하거나, 스크롤 조작을 하면, 시스템 콘트롤러(10)는 표시되는 지역이나 축척을 변화시켜, 예를 들면, 도 14a에 도시된 바와 같이 소정 지역의 지도 화상을 표시시킨다.
시스템 콘트롤러(10)는 포인터 PT를 도 14b에 도시된 바와 같이 지도 화상에 표시시키고, 포인터 PT가 유저 조작에 따라 지도 화상에서 이동되도록 한다. 즉, 유저는 포인터 PT를 지도 화상에서 원하는 위치로 이동시키고, 소정의 조작을 행함으로써, 지도 화상에 특정한 위치를 지정할 수 있다.
물론 포인터 PT의 이용이 근본적인 것은 아니다. 예를 들면, 표시부(2)에 터치 패널 조작 기능을 부가하여, 지도 화상에 대하여 유저가 손가락으로 터치하여 원하는 위치를 지정하도록 할 수도 있다.
그러한 식으로 유저가 지도 화상에서 소정 지점을 지정하는 조작을 행하는 것에 따라서, 시스템 콘트롤러(10)는 위치 지정 정보를 생성한다. 위치 지정 정보는 지도상에서 유저가 지정한 포인트의 위도, 경도의 값을 포함한다.
또한, 장치 A의 시스템 콘트롤러(10)는, 유저의 입력에 따라서, 속도 지정 정보를 생성한다. 예를 들면, 시스템 콘트롤러(10)는, 표시부(2)에 도 14c에 도시된 바와 같은 속도 선택 화면을 표시시킨다. 예를 들면, 유저는 속도 제로(즉, 정지 상태); 사람의 통상의 보행 속도인 속도 6km/h 이하; 사람의 통상의 주행이나 자전거의 통상의 주행 속도인 속도 6∼30km/h; 자동차 등의 통상의 속도로서의 30∼50km/h 등을 선택할 수 있게 된다. 시스템 콘트롤러(10)는, 예를 들면, 임의 옵션을 선택할 수 있게 커서 K를 표시시키고, 유저의 조작에 따라서 커서 K가 이동될 수 있게 한다. 유저는 원하는 속도를 선택하도록 커서 K를 이동하는 조작 및 선택 결정 조작을 행하여 자신이 원하는 속도를 선택한다. 물론, 유저가 손가락으로 원하는 옵션(속도)을 터치하여 선택할 수 있게 표시부(2)를 터치 패널 방식으로 구성할 수도 있다.
시스템 콘트롤러(10)는, 원하는 속도에 대한 유저의 선택 및 결정 조작에 따라서, 속도 지정 정보를 설정한다.
상기 예에서와 같이 유저가 선택할 수 있는 옵션이 준비되는 것이 유일한 것은 아니다. 예를 들어, 시스템 콘트롤러(10)는 표시부(2)에 도 14d에 도시된 바와 같이 입력 박스 W를 표시시켜, 유저가 속도 지정을 위해 수치를 입력할 수 있게 해도 된다.
또한, 속도 지정이 구체적인 수치 값이어야 하는 것은 아니다. 예를 들어, "통상의 보행 속도", "통상의 자전거의 속도", "통상의 자동차의 속도", 및 "통상의 열차의 속도" 등의 감각적으로 이해하기 쉬운 선택 옵션을 준비하여, 이것들을 유저가 선택할 수 있도록 해도 된다.
시스템 콘트롤러(10)는, 전술한 바와 같은 식으로 유저가 특정한 속도 또는 속도 범위를 입력함에 응답해서, 속도 지정 정보로서 특정한 속도 혹은 속도범위를 설정한다.
장치 A의 시스템 콘트롤러(10)는, 스텝 F100에서 위치 지정 정보 및 속도 지정 정보를 생성한 후, 스텝 F101에서 서버 장치(70)에 액세스한다. 즉, 장치 A의 시스템 콘트롤러(10)는 서버 장치(70)와의 통신 접속 상태를 확립한다. 이때, 장치 A의 시스템 콘트롤러(10)는 화상 요구의 정보와, 속도 지정 정보와 위치 지정 정보를 서버 장치(70)에 송신한다.
서버 장치(70)의 서버 제어부(72)는, 스텝 F300에서, 장치 A와의 통신 접속을 확립하고, 화상 요구와, 속도 지정 정보 및 위치 지정 정보를 접수한다.
이후, 스텝 F301에서, 서버 제어부(72)는 위치 지정 정보로 나타내어지는 특정한 위치의 근변에 현재 위치하고, 속도 지정 정보로 나타내지는 속도(혹은 이 속도에 가까운 속도)로 이동하고 있는 장치 B(촬상/표시 장치(1) 또는 촬상 장치(30))를 검색한다.
이러한 검색을 위해, 잠재적 화상 공급원인 모든 촬상/표시 장치(1) 및 촬상 장치(30)는 항상 또는 정기적으로 자기의 현재 위치 정보(즉, 자신의 현재 위치의 위도 및 경도)와 현재 속도 정보를 서버 장치(70)에 송신하는 것을 상정하였다.
서버 장치(70)에서,카메라 위치/속도 관리부(74)는 각 촬상/표시 장치(1) 및 촬상 장치(30)에 대해서, 그 카메라 ID와 관련되도록 현재 위치 정보와 현재 속도 정보를 관리한다.
예를 들면, 카메라 위치/속도 관리부(74)는 도 10에 도시된 바와 같은 카메라 위치/속도관리 테이블을 구비한다. 이 카메라 위치/속도관리 테이블은 카메라 ID(CM001, CM002,···)에 관련시켜 현재 위치 정보(cp1, cp2,···) 및 현재 속도 정보(cv1, cv2,···)를 기록한 테이블이다.
촬상/표시 장치(1)와 촬상 장치(30) 중 어느 하나로부터 현재 위치 정보 및 현재 속도 정보를 수신하는 때마다, 수신된 현재 위치 정보 및 현재 속도 정보를 송신한 촬상/표시 장치(1) 또는 촬상 장치(30)의 카메라 ID와 관련된 현재 위치 정보 및 현재 속도 정보를 카메라 위치/속도관리 테이블에서 갱신한다. 따라서, 촬상/표시 장치(1) 및 촬상 장치(30)(즉, 모든 잠재적인 화상 공급원) 각각의 현재 위치를 파악할 수 있다.
예를 들면, 카메라 ID가 "CM001"인 장치 B는 정기적으로 현재 위치 정보 및 현재 속도 정보를 서버 장치(70)에 송신하고,카메라 위치/속도관리 테이블에서는 "CM001"의 현재 위치 정보 cp1과 현재 속도 정보 cv1이 정기적으로 갱신된다고 상정한다.
스텝 F301에서,서버 제어부(72)는 위치 지정 정보에 포함되어 있었던 경도 및 위도의 위치 근변에 현재 위치하고 있고, 속도 지정 정보가 나타내는 속도로 이동하는 촬상/표시 장치(1) 또는 촬상 장치(30)를 카메라 위치관리부(74)에게 검색시켜, 1개의 촬상/표시 장치(1) 또는 촬상 장치(30)를 현재 원하는 장치 B로서 특정한다.
속도 지정 정보 및 위치 지정 정보에 기초해서 소정의 촬상/표시 장치(1) 또는 촬상 장치(30)가 현재 원하는 장치 B로서 특정되면,서버 제어부(72)는, 스텝 F302에서, 해당 장치 B에 대하여 통신 접속 요구를 행한다. 이후, 서버 제어부(72)는 장치 B에게 장치 A로부터의 화상 요구를 통지한다.
도 9에는 도시되어 있지 않지만, 위치 지정 정보로 나타내어진 위치의 근변에 촬상/표시 장치(1) 또는 촬상 장치(30)가 현재 존재하지 않는 경우가 있을 수 있다. 또한, 위치 지정 정보로 나타내어진 위치의 근변에, 하나 이상의 촬상/표시 장치(1) 또는 촬상 장치(30)가 현재 존재하지만, 이들 중 어느 것도 속도 지정 정보로 나타내어진 속도로 이동하지 않는 상황도 있을 수 있다.
그러한 경우에는, 서버 제어부(72)는 장치 A에게 위치 지정 정보 및 속도 지정 정보에 일치하는 장치 B가 발견되지 않아 화상의 제공이 불가능함을 통지한다. 이에 응답해서, 장치 A는 화상제공 불능의 취지를 유저에게 알려주고 처리를 끝낸다.
또한,복수의 촬상/표시 장치(1) 또는 촬상 장치(30)가, 현재 위치 지정 정보로 나타내어진 위치 근변에 있고 속도 지정 정보로 나타내어진 속도로 이동하고 있는 것으로 발견될 경우도 있다. 이 경우에는, 발견된 장치들 중에서, 카메라 위치/속도 관리 테이블의 정보가 가장 최근에 갱신된 장치를 선택하거나, 혹은 스텝 F302에서 통신 요구에 응답해서 먼저 서버 장치(70)와의 통신 접속을 확립하는 장치를 선택할 수 있다.
스텝 F200에서, 서버 장치(70)에 의해 실행된 스텝 F302의 처리 결과로서 접속 요구를 수신한 장치 B의 시스템 콘트롤러(10)는 그 접속 요구에 따라서 서버 장치(70)와의 통신 접속을 확립하는 처리를 행하여, 서버 장치(70)와의 통신을 개시하는 동시에 화상 요구를 접수한다.
스텝 F201에서, 장치 B는, 화상 요구에 응답해서, 화상 송신 처리를 행한다. 구체적으로, 장치 B의 시스템 콘트롤러(10)는 촬상부(3)의 촬상에 의해 얻을 수 있는 화상 데이터 및 음성 입력부(6)로 집음된 음성 데이터를, 통신부(26)를 통해 서버 장치(70)에 송신시킨다.
스텝 F303에서, 서버 장치(70)는 장치 B로부터 송신되어 온 화상 데이터 (및 음성 데이터)를 장치 A에 전송한다.
스텝 F102에서, 장치 A는 서버 장치(70)를 통해서 장치 B로부터 송신된 화상 데이터 (및 음성 데이터)를 수신하여 수신된 화상 데이터를 표시한다. 구체적으로, 장치 A의 시스템 콘트롤러(10)는 통신부(26)에 의해 수신 및 복조되는 화상 데이터 (및 음성 데이터)를 화상처리부(15) 및 음성처리부(16)에 공급시켜, 이 화상이 표시부(2)에 표시되게 하고 음성은 음성 출력부(5)를 통해 출력되게 한다.
장치 A의 시스템 콘트롤러(10)는 화상 데이터/음성 데이터의 출력이 종료되었다고 판단될 때까지, 표시부(2)를 통한 수신된 화상 데이터의 출력 (및 음성 출력부(5)를 통한 수신된 음성 데이터)을 계속 실행한다. 한편, 장치 B는 통신 종료 요구가 수신될 때까지 화상을 촬상하고, 촬상한 화상의 화상 데이터 (및 음성 데이터)를 계속 송신한다.
그러므로, 그 기간 동안, 장치 A의 유저는 유저가 지정한 위치의 근변에 존재하고, 유저가 지정한 속도로 이동하고 있는 이동체에 장착된 장치 B에 의해 촬상되는 광경을 볼 수 있다.
스텝 F103에서, 장치 A의 시스템 콘트롤러(10)는 화상 표시가 종료되어야 하는지 여부를 판단한다. 예를 들면, 장치 A의 시스템 콘트롤러(10)는 유저가 조작 입력부(11)를 이용하여 화상 표시 종료의 조작을 실행하였을 때 화상 표시가 종료되어야 하는 것으로 판단한다. 또한, 화상 데이터의 수신 및 표시가 소정 기간 동안 연속될 때 화상의 표시는 자동으로 종료될 수 있다. 유저 조작 혹은 다른 종료 조건에 기초하여 화상의 표시가 종료된 것으로 판단하면, 제어는 스텝 F104로 간다. 스텝 F104에서, 장치 A의 시스템 콘트롤러(10)는 통신부(26)를 통해서 서버 장치(70)에 통신 해제 요구를 송신시킨다.
서버 장치(70)는 통신 해제 요구를 수신할 때까지 스텝 F303에서 전송 처리를 계속한다. 통신 해제 요구를 수신하면, 서버 장치(70)의 서버 제어부(72)는 스텝 F304로부터 스텝 F305에 가고, 장치 B에 통신 해제 지시를 송신한다.
장치 B의 시스템 콘트롤러(10)가 스텝 F202에서 통신 해제 지시의 수신을 확인하면, 스텝 F203에 간다.
스텝 F105에서, 장치 A의 시스템 콘트롤러(10)는 서버 장치(70)와의 통신 접속 해제 처리를 행한다. 스텝 F203에서, 장치 B의 시스템 콘트롤러(10)는 서버 장치(70)와의 통신 접속 해제 처리를 행한다. 스텝 F306에서, 서버 장치(70)의 서버 제어부(72)는 장치 A 및 B간의 통신 및 서버 처리를 종료시킨다. 그 결과, 이 시스템 동작이 종료된다.
이러한 처리에 따르면, 장치 A의 유저는, 지도 화상을 이용해서 임의의 위치를 지정함과 함께 임의의 속도를 지정함으로써, 그 지정한 위치의 근변에 위치하고, 지정한 속도로 이동하고 있는 이동체에 탑재된 장치 B에 의해 얻을 수 있는 광경을, 자신이 장착 또는 소지하고 있는 장치 A로 볼 수 있다.
장치 A의 유저가 볼 수 있는 화상의 예를 도 15a 내지 15d에 도시하였다.
도 15a 및 15b에 도시된 바와 같이, 예를 들면 장치 A의 유저가 지도상에서 어떤 도로의 지점을 지정하고 소정의 속도를 지정하면, 유저는 지정한 지점 근방에서 지정한 속도로 현재 이동하고 있는 자동차 등으로부터 보이는 광경의 화상을 볼 수 있다. 그러한 화상은, 예를 들면, 자동차에 부착된 촬상 장치(30)나, 운전수가 장착한 촬상 장치(30) 또는 촬상/표시 장치(1)가, 지정한 지점 부근에서 지정한 속도로 이동하면서 (혹은 속도 제로가 지정된 경우에는 정지해서) 촬상하는 화상이다.
도 15c를 참조해 보면, 장치 A의 유저가 예를 들어 지도상에서 소정의 철도 노선상의 지점을 지정하고 소정의 속도를 지정하면, 유저는 지정된 지점 근방에서 현재주행하고 있는 철도 차량에 장착된 촬상 장치(30), 혹은 철도 차량의 운전기사가 장착하고 있는 촬상 장치(30) 또는 촬상/표시 장치(1)와 같은 장치 B에 의해 촬상된 화상을 볼 수 있다.
도 15d를 참조해 보면, 장치 A의 유저가 예를 들어 지도상에서 소정의 리조트 내의 지점을 지정하고, 사람이 걷는 속도를 지정하면, 유저는 지정된 지점에서 현재 걷고 있는 사람이 장착하고 있는 촬상 장치(30) 또는 촬상/표시 장치(1)와 같은 장치 B에 의해 촬상된 화상을 볼 수 있다.
상기 예에서와 같이, 장치 A의 유저는, 지도상의 지점과 이동 속도를 지정함으로써, 지정한 지점에서 지정한 속도로 이동하는 장치 B에 의해 실제로 촬상되어 있는 화상을 볼 수 있다.
전술한 동작 예에서,장치 A의 부분에 지도가 표시되고 유저가 지도상에 소정의 위치를 지정하는 것으로 상정하였지만, 지도의 표시가 본 발명의 핵심은 아니다. 예를 들어, 장치 A의 유저는 특정한 지명, 주소 등을 입력하여, 입력된 지명, 주소 등이 위치 지정 정보로서 서버 장치(70)에 송신되게 할 수도 있다. 이 경우, 서버 장치(70)는 지명이나 주소 등에 해당하는 위치(예를 들어, 그의 위도 및 경도)를 지도 데이터베이스(75)를 이용하여 특정하고, 특정된 위치 근변에 있는 장치 B를 검색할 수 있다.
또한, 특정 위치 대신에, 불특정한 위치를 지정할 수도 있다. 예를 들면, "산", "해안", "삼림 지대", "해상", "해중", "하늘" 등의 불특정한 정보를 위치 지정 정보로서 이용할 수 있다. 이 경우에, 서버 장치(70)는 불특정한 정보에 해당하는 위치에 있는 장치 B를 검색할 수도 있다.
[5. 시스템 동작 예 II]
시스템 동작 예 II를 이하 설명한다. 시스템 동작 예 II에서, 장치 B에 의해 촬상된 화상 데이터는 서버 장치(70)에 축적되고, 축적된 화상 데이터는 재생 및 판독되어 장치 A에 공급된다.
이 동작 예에서는,이동체에 탑재된 장치 B(즉, 촬상 장치(30) 또는 촬상/표시 장치(1))에 의해 촬상된 화상 데이터는, 촬상시의 이동 속도를 나타내는 속도 정보와 촬상시의 위치를 나타내는 위치 정보를 포함하는 부가 데이터와 함께 서버 장치(70)에 송신되고, 이 화상 데이터와 부가 데이터는 서버 장치(70)에 저장된다. 따라서 서버 장치(70)에는, 각지에 있는 다수의 장치 B 각각에 의해 촬상되어 얻어진 화상 데이터가 해당하는 속도 정보 및 위치 정보와 함께 축적된다. 이와 같이, 장치 A(즉, 표시 장치(40) 또는 촬상/표시 장치(1))측에서 속도 및 위치를 지정하고, 속도 지정 정보와 위치 지정 정보가 서버 장치(70)에 송신되면, 서버 장치(70)는 속도 지정 정보와 위치 지정 정보에 기초해서 적절한 화상 데이터를 검색할 수 있다. 서버 장치(70)는 속도 지정 정보와 위치 지정 정보에 매칭되는 화상 데이터를 검색하고 판독하여 판독된 화상 데이터를 장치 A에 송신한다. 장치 A는 화상 데이터를 수신하여 표시한다. 그 결과, 표시 장치 A의 유저는 지정한 위치에서 지정한 속도로 이동하고 있던 장치 B에 의해 촬상된 과거 광경의 표시 화상을 볼 수 있다.
시스템 동작 예 II를 도 11, 12, 및 13을 참조하여 이하 설명한다.
도 11은 장치 A로서의 촬상/표시 장치(1) 및 표시 장치(40), 서버 장치(70), 장치 B로서의 촬상/표시 장치(1) 및 촬상 장치(30)를 나타내고 있다.
장치 B로서의 촬상 장치(30) 및 촬상/표시 장치(1)는, 촬상한 화상 데이터 (및 음성 데이터)를 서버 장치(70)에 송신하는 처리를 행한다.
예를 들면, 장치 B로서의 촬상 장치(30) 및 촬상/표시 장치(1)는 항상 촬상 을 행하여,촬상된 화상 데이터 (및 음성 데이터)를 서버 장치(70)에 송신할 수 있다. 특정 시간에만 촬상을 행하는 경우, 장치 B로서의 촬상 장치(30) 및 촬상/표시 장치(1)는 촬상이 실행되었을 때마다 촬상된 화상 데이터 (및 음성 데이터)를 서버 장치(70)에 송신할 수도 있다. 예를 들어, 촬상 및 화상 데이터의 송신은 정기적으로 행할 수 있다. 유저가 장치 B를 장착한 경우, 촬상 및 화상 데이터의 송신은 유저 조작에 기초하여 실행될 수 있다. 더욱이, 서버 장치(70)는 위치 정보가 나타내는 위치 정보와 함께 촬상 요청을 장치 B에 송신할 수 있다. 이 경우에, 장치 B의 시스템 콘트롤러(10)는 장치 B의 현재 위치가 위치 정보가 나타내는 지정 위치에 해당한다고 판정한 때 자동으로 촬상해서 얻은 화상 데이터를 서버 장치(70)에 송신할 수도 있다.
전술한 바와 같이, 장치 B로서의 촬상 장치(30) 및 촬상/표시 장치(1)는 또한 화상 데이터/음성 데이터를 서버 장치(70)에 송신하는 때에 부가 데이터도 송신한다.
부가 데이터는 송신되는 화상 데이터/음성 데이터에 관한 화상관리 정보와, 화상 데이터가 촬상에 의해 얻어지는 때의 속도를 나타내는 속도 정보와, 화상 데이터가 촬상에 의해 얻어지는 위치를 나타내는 위치 정보와, 화상 데이터가 촬상에 의해 얻어지는 때인 일시를 나타내는 일/시 정보를 포함한다.
서버 장치(70)는 촬상/표시 장치(1) 및 촬상 장치(30)의 각각으로부터 송신된 화상 데이터 (및 음성 데이터) 및 부가 데이터를, 네트워크 저장부(71) 내의 속 도 화상 데이터베이스에 축적한다.
즉, 서버 제어부(72)는, 통신부(73)를 통해 장치 B로부터 화상 데이터 (및 음성 데이터) 및 부가 데이터를 수신하면, 그 수신한 데이터를 네트워크 저장부(71) 내의 속도 화상 데이터베이스에 등록하는 처리를 행한다.
도 12는 속도 화상 데이터베이스의 기록 내용을 도식적으로 나타낸다.
속도 화상 데이터베이스에는, 장치 B로서의 각각의 촬상/표시 장치(1) 및 촬상 장치(30) 각각으로부터 송신된 화상 데이터가 엔트리 #1, #2 등으로 분리되어 등록된다. 화상 데이터의 분리는 화상 데이터 사이즈, 재생 시간 등에 기초할 수 있다. 예를 들어, 최대 데이터 크기, 최대 재생 시간 등이 결정될 수 있다. 장치 B로부터 화상 데이터가 계속적인 동화상으로서 송신되는 경우에, 촬상에 의해 화상 데이터가 얻어지는 위치를 나타내는 위치 정보가 변하는 지점에서 연속 동화상이 서로 다른 엔트리로 구획될 수 있다. 화상 데이터를 서로 다른 엔트리로 구획하는 방식은, 예를 들어, 장치 B로부터의 화상 데이터의 송신 양태, 또는 송신 계속 시간에 따라서, 또는 속도 화상 데이터베이스의 관리 정보의 형편 또는 서버 장치(70)의 화상 제공 서비스의 형편에 따라서 적절히 결정할 수 있다.
도 12를 참조해 보면, 화상 데이터 (및 음성 데이터) VD1, VD2, VD3 등은 엔트리로서 기록되지만, 위치 정보 P1, P2, P3, 등, 일/시 정보 Date 1, Date 2, Date 3 등, 화상관리 정보 C1, C2, C3, 등, 속도 정보 V1, V2, V3 등은 각각 화상 데이터 VD1, VD2, VD3 등에 관련되게 기록된다.
위치 정보, 일/시 정보, 화상관리 정보 및 속도 정보는 화상 데이터와 함께 장치 B로부터 송신되어 온 부가 데이터이다.
예를 들면, 엔트리 #1에 대해서 말하면, 위치 정보 P1은 화상 데이터 VD1의 화상이 촬상된 위치를 나타내는 위치 정보이며, 예를 들면, 이 위치의 위도 및 경도의 정보다.
일/시정보 Date1은, 화상 데이터 VD1의 화상을 촬상한 시점의 일시(년, 월, 일, 시, 분, 초)를 나타내는 정보이다.
속도 정보 V1은, 화상 데이터 VD1의 화상을 촬상한 시점의 이동 속도를 나타내는 정보이다.
화상관리 정보 C1은 화상 데이터 VD1의 관리 정보이며, 예를 들면 화상 종별, 데이터 사이즈, 압축 방식, 장치 B의 식별 정보 및 화상 데이터 VD1의 화상이 촬상된 위치의 명칭 정보 등의 촬상 위치-관련 정보이다. 촬상 위치-관련 정보는, 장치 B로서의 촬상/표시 장치(1) 또는 촬상 장치(30)에 있어서의 지도 데이터베이스(29)로부터, 촬상시의 현재 위치 정보에 기초해서 검색하고, 장치 B의 시스템 콘트롤러(10)는 검색된 촬상 위치-관련 정보를 부가 데이터에 부가해서 서버 장치(70)에 송신해도 된다. 대안으로, 서버 장치(70)는 위치 정보 P1에 기초해서 지도 데이터베이스(75)로부터 촬상 위치-관련 정보를 검색할 수 있다.
전술한 바와 같이, 장치 B로서의 촬상/표시 장치(1) 및 촬상 장치(30)는 도 11에 도시된 바와 같이 화상 데이터와 부가 데이터를 서버 장치(72)에 송신한다. 그 결과, 각종 장소에서 각종 속도로 촬상된 화상의 화상 데이터가 도 12에 도시된 바와 같이 속도 화상 데이터베이스에 축적된다.
각종 장소에서 각종 속도로 촬상된 화상이 서버 장치(70)에 축적되므로, 서 버 장치(70)는 화상제공 서비스를 장치 A의 유저에게 제공하는 것이 가능하게 된다.
장치 A로서의 촬상/표시 장치(1) 또는 표시 장치(40)가 서버 장치(70)와 통신을 행하여, 서버 장치(70)로부터 화상 데이터를 취득해서 취득한 화상 데이터를 표시하는 동작 예를 이하 설명한다. 즉, 이 동작 예는 장치 A의 유저가 서버 장치(70)에 의해 제공된 화상제공 서비스를 향유하는 동작이다.
도 13에 나타내는 장치 A의 처리는 촬상/표시 장치(1) 또는 표시 장치(40)의 시스템 콘트롤러(10)의 제어 처리로서 생각할 수 있고, 서버 장치(70)의 처리는 서버 제어부(72)의 제어 처리로서 생각할 수 있다.
우선, 스텝 F110에서, 장치 A의 부분에서는,지도 화상을 이용한 위치 지정 처리 및 속도 지정 처리를 행한다.
위치 지정 처리 및 속도 지정 처리는 상기 시스템 동작 예 I에서 설명한 도 9의 스텝 F100에서 실행되는 처리와 유사하다. 예를 들면, 시스템 콘트롤러(10)는 도 14a 및 14b에 도시된 바와 같이 지도 화상을 이용하여 유저 입력에 기초해서 위치 지정 정보를 생성하고, 도 14c 및 14d에 도시된 바와 같이 표시된 화면에 유저 입력에 기초하여 속도 지정 정보를 생성한다.
장치 A의 시스템 콘트롤러(10)는, 스텝 F110에서 위치 지정 정보 및 속도 지정 정보를 생성한 후, 스텝 F111에서 서버 장치(70)에 액세스한다. 즉, 장치 A의 시스템 콘트롤러(10)는 서버 장치(70)와의 통신 접속을 확립한다. 이때, 장치 A의 시스템 콘트롤러(10)는 화상 요구의 정보와, 위치 지정 정보와 속도 지정 정보를 서버 장치(70)에 송신한다.
스텝 F310에서, 서버 장치(70)의 서버 제어부(72)는 장치 A와의 통신 접속을 확립하고, 화상 요구와 위치 지정 정보와 속도 지정 정보를 접수한다.
이후, 스텝 F311에서, 서버 제어부(72)는 판독될 화상 데이터를 특정한다. 구체적으로, 수신된 위치 지정 정보와 속도 지정 정보에 기초해서 서버 제어부(72)는 네트워크 저장부(71) 내의 속도 화상 데이터베이스를 검색하여, 위치 정보가 위치 지정 정보와 매칭되고 속도 정보가 속도 지정 정보와 매칭되는 엔트리를 추출한다.
이후, 서버 제어부(72)는 추출한 엔트리의 화상 데이터를 판독될 화상 데이터로서 특정한다.
위치 정보가 위치 지정 정보와 매칭된다는 의미는 위치 정보의 위도 및 경도와 위치 지정 정보의 위도 및 경도가 서로 완전히 일치한다는 것에 한정되지 않으며, 위치 정보의 위도 및 경도가 위치 지정 정보가 나타내는 위치의 위도 및 경도로서 간주할 수 있는 소정 범위 내에 속하는 경우도 고려해 볼 수 있다. 이러한 소정 범위는 속도 지정 정보의 값에 따라서 변화될 수 있다. 예를 들면, 지정되는 속도가 빠를수록 이 소정 범위를 더 넓히는 것이 적합하다.
또한, 속도 정보가 속도 지정 정보와 매칭된다는 의미는 속도 정보의 값이 속도 지정 정보가 나타내는 속도 값과 일치하거나 속도 지정 정보가 나타내는 속도 값의 범위 내에 속한다는 것에 한정되는 것이 아니라, 속도 정보의 값이 속도 지정 정보가 나타내는 속도 값 또는 이 속도 값의 범위에 가까운 것으로 간주할 수 있는 소정 범위 내에 속하는 것도 생각해 볼 수 있다.
또한,위치 지정 정보와 속도 지정 정보와 매칭되는 복수의 엔트리가 발견 수도 있다. 이 경우에, 일/시 정보를 참조하여, 일/시 정보가 최신의 일시를 나타내는 엔트리의 화상 데이터를 판독될 화상 데이터로서 선택할 수 있다. 대안으로, 위치 지정 정보와 속도 지정 정보와 매칭되는 모든 엔트리가 순서대로 판독되도록 결정될 수도 있다.
또한,위치 지정 정보 및 속도 지정 정보와 매칭되는 엔트리가 발견되지 않는 경우도 있을 수 있다. 이러한 경우는, 예를 들어, 위치 지정 정보가 나타내는 위치에서 또는 이 위치 근변에서 촬상된 화상의 화상 데이터가 장치 B에 의해 업로드되지 않은 경우이거나, 또는 업로드된 몇몇 화상 데이터가 위치 지정 정보와 매칭되더라도 속도 지정 정보와 매칭되는 화상 데이터가 없는 경우이다.
그러한 경우에, 도 13에 도시되어 있지 않지만, 서버 제어부(72)는 장치 A에게 위치 지정 정보 및 속도 지정 정보와 매칭되는 화상 데이터가 발견되지 않았기 때문에 화상제공이 불가능하다는 취지를 통지한다. 이에 응답해서, 장치 A는 화상제공 불능의 취지를 유저에게 알려주고 처리를 끝낸다.
서버 제어부(72)는, 속도 화상 데이터베이스를 검색하여 판독될 엔트리(즉, 화상 데이터)를 특정한 후, 스텝 F312에서, 판독될 화상으로서 특정된 화상 데이터를 네트워크 저장부(71)로부터 판독시켜, 판독된 화상 데이터 및 음성 데이터를 통신부(73)를 통해 장치 A에 송신시킨다.
스텝 F112에서, 장치 A는 서버 장치(70)로부터 송신된 화상 데이터를 수신하여 표시한다. 즉, 장치 A의 시스템 콘트롤러(10)는 통신부(26)에 의해 수신 및 복조되는 화상 데이터 (및 음성 데이터)를 화상처리부(15) 및 음성처리부(16)에 공급시켜, 화상 데이터를 표시부(2)에 표시시키고 음성 데이터는 음성 출력부(5)를 통해서 음성 출력시킨다.
스텝 F113에서, 장치 A의 시스템 콘트롤러(10)는 서버 장치(70)로부터 통신 해제 요구가 송신되었는지 여부를 감시한다.
스텝 F114에서, 장치 A의 시스템 콘트롤러(10)는 화상 표시가 종료인가 아닌가를 판단한다. 예를 들면, 장치 A의 시스템 콘트롤러(10)는 유저가 조작 입력부(11)를 이용하여 화상 표시 종료의 조작을 하면 화상 표시가 종료라고 판단한다. 또한, 화상 데이터의 수신 및 표시가 소정 기간 동안 계속된 때는 화상 표시가 자동으로 종료되게 할 수 있다.
장치 A의 시스템 콘트롤러(10)는 스텝 F113에서 통신 해제 요구가 수신되었다고 판단될 때까지, 혹은 스텝 F114에서 화상 표시가 종료인 것으로 판단될 때까지 스텝 F112에서 수신한 화상 데이터 (및 음성 출력)를 계속 표시한다.
스텝 F313에서, 서버 장치(70)는 판독될 엔트리의 화상 데이터의 판독이 종료하였는지의 여부를 감시한다. 스텝 F314에서, 서버 장치(70)는 장치 A로부터 통신 해제 요구가 수신되었는지의 여부를 감시한다. 서버 장치(70)는 F313에서 화상 데이터의 판독이 완료되었다고 판단될 때까지 또는 스텝 F314에서 통신 해제 요구가 수신되었다고 판단될 때까지는 화상 데이터 (및 음성 데이터)의 판독 및 송신을 계속한다.
그러므로, 이 기간 동안, 장치 A의 유저는 지도 화상을 이용하여 유저가 지정한 위치나 그 근변에 위치한 장치 B가 지정 속도로 이동하면서 과거에 촬상한 실제 광경의 화상을 볼 수 있다.
장치 A의 시스템 콘트롤러(10)는, 스텝 F114에서 유저 조작 혹은 다른 종료 조건에 기초해서 화상 표시 종료라고 판단되면, 스텝 F115로 가서 통신부(26)를 통해서 서버 장치(70)에 통신 해제 요구를 송신시킨 다음, 스텝 F116으로 간다. 서버 장치(70)는, 통신 해제 요구를 수신하면, 스텝 F314로부터 F316으로 간다.
서버 제어부(72)는, 판독될 엔트리의 판독 및 송신을 완료했다고 판단하면, 스텝 F313으로부터 F315로 가고, 통신부(73)를 통해서 장치 A에 통신 해제 요구를 송신시킨다. 장치 A의 시스템 콘트롤러(10)는, 통신 해제 요구를 수신하면, 스텝 F113으로부터 F116으로 간다.
이후, 장치 A의 시스템 콘트롤러(10)는, 스텝 F116에서, 서버 장치(70)와의 통신 접속 해제 처리를 행한다. 스텝 F316에서, 서버 장치(70)의 서버 제어부(72)는 장치 A와의 통신 및 서버 처리를 종료시킨다. 따라서, 시스템 동작이 끝난다.
전술한 처리에 따르면, 장치 A의 유저는, 지도 화상을 이용하여 임의로 소정의 위치를 지정하고 임의의 속도를 지정함으로써, 지정 위치 근처에서 지정 속도로 이동하는 장치 B가 촬상한 광경을, 자신이 장착 또는 소지하고 있는 장치 A로 볼 수 있다.
도 15a 및 15b를 참조해 보면, 예를 들어 장치 A의 유저가 지도상에 소정의 도로의 지점을 지정하고 소정의 속도를 지정하면, 유저는 지정 지점에서 지정 속도로 과거에 이동하고 있었던 자동차 등으로부터 보이는 광경의 화상을 볼 수 있다. 그러한 화상은, 예를 들면, 자동차에 부착한 촬상 장치(30)나, 운전수가 장착하고 있는 촬상 장치(30) 또는 촬상/표시 장치(1)가 지정 지점 부근에서 지정 속도로 이동하고 있었을 때(혹은 속도 제로가 지정된 경우에는 정지하고 있었을 때)에 촬상한 화상이다.
도 15c를 참조해 보면, 예를 들어 장치 A의 유저가, 지도상에 소정의 철도 노선상의 지점을 지정하고 소정의 속도를 지정하면, 유저는 과거에 지정 지점을 주행하고 있었던 철도차량에 부착된 촬상 장치(30), 혹은 철도 운전기사가 장착하고 있었던 촬상 장치(30) 또는 촬상/표시 장치(1)와 같은 장치 B에 의해 촬상된 화상을 볼 수 있다.
도 15d를 참조해 보면, 예를 들어 장치 A의 유저가, 지도상에 소정의 리조트 의 지점을 지정하고 사람이 걷는 속도를 지정하면, 유저는 과거에 지정 지점에서 산책중인 사람이 장착하고 있었던 촬상 장치(30) 또는 촬상/표시 장치(1)와 같은 장치 B에 의해 촬상된 화상을 볼 수 있다.
전술한 예에서와 같이, 장치 A의 유저는, 지도상의 지점과 이동 속도를 지정함으로써, 과거에 그 지점에서 지정한 이동 속도로 이동하는 장치 B가 실제로 촬상한 화상을 볼 수 있다.
상기의 설명에서,장치 A의 유저가 위치와 속도를 지정하는 것으로 상정하였지만, 유저가 도 13의 스텝 F110에서 일시를 부가적으로 지정하게 할 수도 있다.
전술한 바와 같이, 스텝 F110에서, 시스템 콘트롤러(10)는 지도 화상이 표시된 상태에서 유저의 위치 지정 조작에 따라서 위치 지정 정보를 생성하고, 메뉴를 이용하거나 혹은 수치를 입력하는 것 중 하나로 속도를 입력할 것을 유저에게 요청하고, 입력된 속도에 따라서 속도 지정 정보를 생성한다. 이때, 시스템 콘트롤러(10)는 유저에게 예를 들어 메뉴를 입력하거나 혹은 수치를 입력하는 것 중 하나로 일시를 지정 및 입력하도록 부가적으로 요청할 수 있다.
예를 들어, 유저가 특정 연, 월, 일, 특정한 시각 등을 지정 입력할 수 있게 하거나, 소정의 날짜 범위(예를 들면, 몇월 며칠로부터 몇월 며칠까지)나 소정의 시간 범위(예를 들면, 소정 시간으로부터 다른 시간까지)를 지정 입력할 수 있게 할 수 있다. 또한, 유저가 입력된 일시에 기초하여 검색 조건을 선택하게 할 수도 있다. 그러한 검색 조건의 예는 "지정된 일/시를 포함한다", "지정된 일/시 범위 내", "지정된 일/시 이전", 및 "지정된 일/시 이후"를 포함한다. 이때, 시스템 콘트롤러(10)는 지정된 일/시,또는 지정된 일/시와 검색 조건을, 일/시 지정 정보로서 설정한다.
이 경우에, 장치 A의 시스템 콘트롤러(10)는, 스텝 F111에서, 서버 장치(70)를 액세스할 때, 위치 지정 정보 및 속도 지정 정보와 함께, 일/시 지정 정보도 송신한다. 서버 제어부(72)는, 스텝 F310에서, 위치 지정 정보 및 속도 지정 정보와 함께 일/시 지정 정보를 접수한다.
이후, 스텝 F311에서, 서버 제어부(72)는 위치 지정 정보, 속도 지정 정보, 일/시 지정 정보를 이용하여, 속도 화상 데이터베이스를 검색한다.
즉, 서버 제어부(72)는 속도 화상 데이터베이스에 있어서의 위치 정보 및 속도 정보가 위치 지정 정보 및 속도 지정 정보와 각각 매칭되는 엔트리를 추출하고, 또한,속도화상 데이터베이스에 있어서의 일/시 정보가 일/시 지정 정보와 매칭되는 엔트리를 추출한다.
이러한 검색에 의해, 서버 제어부(72)는 유저가 지정한 속도, 위치 및 촬상 일/시와 매칭되는 엔트리를 추출하고, 그 엔트리의 화상 데이터를 판독될 화상으로서 특정한다.
전술한 바와 같이, 장치 A의 유저는, 일/시를 지정함으로써, 지정한 일/시에 촬상된 화상을 선택적으로 볼 수 있다.
예를 들면, 소정 지점에서 소정의 이동 속도로 촬상된 광경 중에서, 장치 A의 유저는 소정 기간에 촬상된 광경, 최근에 촬상된 광경, 소정 시각 전에 촬상된 광경, 특정일에 촬상된 광경, 특정 시간에 촬상된 광경, 밤에 촬상된 광경 등을 임의로 선택해서 볼 수 있다.
이에 의해,유저는 임의의 지점에서 임의의 이동 속도로 촬상된 보다 다양한 광경을 볼 수 있다.
[6. 실시 형태의 효과, 변형 예 및 확장 예]
이상 본 발명의 실시 형태를 설명하였다. 장치 A에 대응하는 촬상/표시 장치(1) 또는 표시 장치(40)의 유저는, 속도와 위치를 지정함으로써, 그 지정한 속도 및 위치와 매칭되는 상태에서 실제로 촬상 장치(30)로 촬상된 화상을 볼 수 있다. 이와 같이, 유저의 다양한 요구사항을 만족시키는 시스템 및 장치가 실현된다. 그러한 요구사항의 예는 소정의 장소에서 소정의 속도로 이동했을 때의 광경을 보고 즐기고 싶을 경우나, 그러한 상황에서 보이는 광경을 알고 싶을 경우를 포함한다.
실제로 사람이 체감할 수 있는 광경들은 이동 속도에 따라서 매우 다른 인상을 준다. 따라서, 속도를 지정해서 지정 속도로 이동중에 보이는 광경을 체험할 수 있게 하면, 유저는 그 광경의 매우 흥미있는 화상을 즐기거나 그 화상이 정보로서 유용함을 발견할 수 있는 기회를 만나게 된다.
또한,유저는, 예를 들어, 이동 속도 180km/h이상을 지정함으로써, 카 레이스, 오토바이 레이스 등의 모터 스포츠를 관전할 수 있다.
또한,본 발명을 차재용의 내비게이션 시스템에 적용하면, 유저는 마치 실제로 지정 위치 근방에서 자동차를 주행하고 있는 상태에서 장면을 보고 있는 것 같이 임의의 장소의 광경을 미리 볼 수가 있다. 이는 유저를 위한 가이드로서 매우 유용하다.
이동 속도는 일반적으로 변동하는 것이고, 예를 들어, 신호등 앞에서 정지한다. 그러므로, 순간 속도뿐만 아니라, 소정 기간의 평균 속도나 소위 표준 속도, 혹은 최고 속도 등의 다양한 속도를 이용한다. 예를 들면, 서버 장치(70)가 관리하는 장치 B의 속도 정보는 순간 속도, 평균 속도, 표준 속도, 최고 속도 등 중에서 어느 하나일 수 있다. 혹은, 장치 B의 순간 속도, 평균 속도, 표준 속도, 최고 속도 등 중 2 이상을 서버 장치(70)가 관리할 수도 있다. 또한, 장치 A의 유저가 순간 속도, 평균 속도, 표준 속도, 최고 속도 중에서 임의 속도를 지정할 수 있도록 하여도 된다.
또한,위치를 지정하고, 그 지정 위치의 촬상 화상을 볼 수 있게 되면, 유저는 지정한 위치의 상황으로서, 예를 들면, 지형, 주위의 건물이나 자연물의 풍경, 도로의 폭이나 차선수, 일시에 따라 변하는 모습 등을 알 수 있게 된다. 따라서, 본 발명을 소위 내비게이션시스템에 적용하면, 확장적인 정보 제공 서비스를 제공할 수 있다.
또한, 위치를 지정할 수 있는 능력은 유저가 특정한 지역의 현재의 광경이나 과거의 광경을 확인하고 싶은 요망이 있을 경우에 유용하다. 예를 들면, 시스템 동작 예 I에서, 유저는 도로의 특정 지점을 지정하여 지정 지점의 근변의 현재의 정체 상황의 광경을 보아서 실제의 정체 상황을 자세하게 인식하거나, 사고가 일어난 특정 장소 근변의 혼잡 광경을 보아서 혼잡을 확인할 수 있다. 유저가 정체 상황을 확인하기를 원하는 경우, 유저는 예를 들면 1km/h이하나, 10km/h이하의 이동 속도를 선택하여 원하는 광경을 입수할 수 있다.
또한,어떤 관광지의 현재의 상황을 보여주는 실제 광경의 화상을 보고, 유저는 날씨의 상태, 단풍이 진행된 상태, 등을 확인할 수 있다. 또한, 시스템 동작 예 II에 따르면 유저는 지정한 장소의 과거의 광경을 확인할 수 있다.
상기 시스템 동작 예 II에서 설명한 바와 같이, 유저는 일/시 지정 정보를 이용하여 제공받을 화상 데이터를 선택할 수 있다. 따라서, 유저는 서로 다른 일/시 조건을 지정하여 서로 다른 화상을 볼 수도 있다.
예를 들면, 유저는 소정의 장소에서 소정 시간 이전에 촬상된 화상으로서, 과거의 시점에 있어서의 이동중의 광경을 지정해서 볼 수 있다.
장치 B로 작용하는 촬상/표시 장치(1) 또는 촬상 장치(30)는 사람을 포함하는 이동체에 장착될 수 있기 때문에, 소위 고정(fixed) 카메라와 같은 고정적인 설비를 설치하는 것이 불필요하다.
이동체에 장착된 촬상/표시 장치(1) 또는 촬상 장치(30)는 당연히 다양한 지점을 이동하면서 촬상한다. 그러므로, 시스템 동작 예 II에 있어서, 다양한 지점에서 실제로 촬상된 화상을 모아서 속도 화상 데이터베이스의 등록 화상을 충실하게 하는 것이 용이하다.
본 발명에 따른 화상 표시 시스템, 표시 장치, 표시 방법의 실시 형태를 설명해 왔지만, 본 발명이 상기 실시 형태의 예에 한정되지 않으며 다양한 변형 예나 확장 예가 있을 것으로 생각된다.
본 발명에 따른 표시 장치에 대응하는 장치 A로서의 촬상/표시 장치(1) 및 표시 장치(40)의 가능한 구성 예나 처리 예는 다양하다. 또한, 본 발명 청구항에서 말하는 촬상 장치에 대응하는 장치 B로서의 촬상/표시 장치(1) 및 촬상 장치(30)의 가능한 구성 예나 처리 예도 다양하다. 또한, 서버 장치(70)의 구성 예나 처리 예도 다양하게 생각된다.
상기 시스템 동작 예 I 및 II에서는,장치 A의 유저가 속도와 위치를 지정하고, 속도 지정 정보와 위치 지정 정보와 매칭되는 화상 데이터가 장치 A에 제공되는 것으로 상정하였다. 그러나, 장치 A의 유저가 속도만을 지정하는 처리 예도 적용할 수 있다.
구체적으로, 이 경우에, 서버 장치(70)에는 속도 지정 정보만이 제공 화상의 선택을 위한 조건으로서 송신된다. 시스템 동작 예 I의 경우에는, 서버 장치(70)의 카메라 위치/속도 관리부(74)는 다수의 장치 B에 대해서 적어도 현재 속도를 관리하고, 서버 장치(70)에서는 현재 속도가 속도 지정 정보와 매칭되는 장치 B가 선택된다. 이후, 장치 B로부터 장치 A로 화상 데이터가 전송된다.
한편, 시스템 동작 예 II의 경우에는, 서버 장치(70)는 원하는 화상 데이터를 위해 속도 화상 데이터베이스를 검색할 때 단지 속도 지정 정보만을 이용하여, 속도 지정 정보와 매칭되는 화상 데이터를 장치 A에 송신한다.
즉, 이 경우, 장치 A의 유저는, 지정한 속도에서 이동하고 있는(또는 이동하고 있었던) 이동체에 장착된 장치 B에 의해 촬상된 화상을 볼 수 있다.
유사하게,장치 A의 유저가 속도와 일/시를 지정하고, 속도 지정 정보와 일/시 지정 정보와 매칭되는 화상 데이터가 장치 A에 제공되는 처리 예도 가능하다.
또한,예를 들면, 장치 B에서 통상의 촬상뿐만 아니라 다양한 촬상 동작을 실행하여 얻은 화상 데이터를 서버 장치(70)에 송신하게 할 수도 있다. 또한, 장치 A나 서버 장치(70)가 다양한 촬상 동작을 장치 B에 요구할 수 있게 하여도 된다. 그러한 다양한 촬상 동작의 예는 망원 촬상; 광각 촬상; 망원과 광각 사이의 범위 내에서의 줌인 혹은 줌 아웃을 포함하는 촬상; 화상확대 촬상; 화상축소 촬상; 프레임 레이트의 가변 촬상(예를 들어, 고프레임 레이트에서의 촬상이나 저프레임 레이트에서의 촬상 등); 고휘도 촬상; 저휘도 촬상; 콘트라스트 가변 촬상; 샤프니스 가변 촬상; 촬상 감도 상승 상태의 촬상; 적외선 촬상 감도 상승 상태의 촬상; 자외선 촬상 감도 상승 상태의 촬상; 특정 파장 대역을 자른 촬상; 촬상 화상 데이터에 대한 모자이크 처리, 휘도 반전 처리, 소프트 포커스 처리, 화상 내의 일부의 강조 처리, 화상 전체의 색의 분위기의 가변 처리 등의 화상 이펙트의 적용을 포함한 촬상; 및 스트로보(stroboscopic) 촬상을 포함한다.
또한,시스템 동작 예 II에서,서버 장치(70)는 지정 속도로 이동하는 장치 B에 의해 촬상된 것으로 보이는 모사 화상을 생성해서 그 모사 화상을 장치 A에 송신할 수도 있다
예를 들면, 장치 A로부터 100km/h의 속도 정보를 나타내는 속도 지정 정보가 송신되고, 속도 화상 데이터베이스에는 50km/h의 속도에서 촬상된 화상 데이터가 존재한다고 하자. 이 경우에, 서버 장치(70)는 그 화상 데이터를 2배속 재생해서 장치 A에 송신할 수 있다. 그러한 식으로, 100km/h로 촬상된 것으로 보이는 모사 화상을 장치 A의 유저에게 제공할 수 있다.
또한, 장치 A측에서는,서버 장치(70)로부터 송신되어 온 화상 데이터를 저장부(25)에 저장할 수도 있다. 시스템 콘트롤러(10)는 저장부(25)에 수신된 화상 데이터를, 속도 정보(예를 들면, 도 9의 스텝 F100, 또는 도 13의 스텝 F110에서 설정한 속도 지정 정보)와 관련시켜 기록해 둔다. 물론, 저장부(25)에 저장된 수신 화상 데이터를 위치 정보와 관련시킬 수 있다.
그 결과, 유저는 이후에 속도를 지정하여 저장부(25)에 저장되어 있는 화상 데이터를 리플레이할 수 있다.
또한, 장치 A의 유저가 소정 지점으로부터의 이동 방향을 지정할 수 있게 할 수도 있다.
이 경우에, 장치 B에서,위치 검출부(12)는 이동 방향도 검출하고, 이 이동 방향은 속도 정보와 함께 서버 장치(70)에 송신된다.
따라서, 장치 A의 유저는 이동 방향을 부가 검색 조건으로서 지정하여, 지정 속도로 지정 이동 방향으로 이동하는 장치 B가 촬상한 화상의 화상 데이터를 선택하도록 서버 장치(70)에 요구할 수 있다.
예를 들면, 남-북 방향으로 연결되는 소정의 도로의 광경은 그 광경을 장치 B가 남으로부터 북으로 이동하면서 촬상하였는지 또는 북으로부터 남으로 이동하면서 촬상하였는지에 따라 다르다. 장치 A의 유저가 이동 방향을 부가 검색 조건으로서 지정하면, 유저가 지정한 이동 방향과 매칭되는 화상 데이터가 장치 A에게 검색되어 제공될 수 있다.
전술한 실시 형태에서, 유저는 지도 화상을 이용해서 위치를 지정한다. 지도 화상의 예는 지상에서의 도로, 지형, 건물, 자연물 등을 나타낸 "지도"의 화상뿐만 아니라, 해양도, 해중 지형도, 항공도, 우주도 등의 특정한 장소를 지정할 때 이용할 수 있는 각종 도의 화상을 포함한다.
즉, 전술한 실시 형태에서는,유저가 지상의 지도 화상을 이용하여 위치 지정을 행하는 것을 가정했지만, 해양도, 해중 지형도, 항공도, 우주도 등이 소정 위치를 지정하는데 이용될 수 있다.
시스템 동작 예 II의 경우에, 예를 들면, 서버 장치(70)는 선박, 잠수함, 항공기, 위성 등에서 촬상된 화상의 화상 데이터를, 그 속도 정보, 위치 정보 등과 함께 속도 화상 데이터베이스에 등록해 둘 수 있다. 이 경우에, 서버 장치(70)는 유저가 해양도, 해중 지형도, 항공도, 우주도 등을 이용하여 유저가 지정한 위치를 기반으로 적절한 화상을 검색하여, 발견된 화상을 장치 A에 제공할 수 있다. 해중, 공, 우주 등에 관한 위치 정보는 위도 및 경도의 정보뿐만 아니라 고도 또는 심도의 정보를 포함할 수 있다.
시스템 동작 예 I의 경우에, 예를 들면, 유저가 해양도를 이용해서 위치를 지정하고, 또 속도를 지정하면, 지정 위치에 대응하는 해역에서 지정 속도에 대응하는 속도로 항행하고 있는 선박에 장착된 장치 B가 선택되고, 선택된 장치 B에서 촬상되고 있는 화상의 화상 데이터가 장치 A에 전송된다. 마찬가지로, 예를 들면 유저가 우주도를 이용하여 위성 궤도상의 소정 장소 및 속도를 지정하면,지정된 지점 또는 그 근변에서 지정된 속도로 이동하는 인공 위성에서 촬상된 화상을 볼 수 있다.
전술한 실시 형태에서는, 화상 데이터와 음성 데이터를 장치 B로부터 서버 장치(70)를 통해서 장치 A에 제공하는 것으로 상정하였다. 그러나, 본 발명의 다른 실시 형태에서는 화상 데이터만을 대상으로 삼아도 된다.
또한, 본 발명은 음성 데이터만을 다루는 시스템에 적용할 수도 있다.
도 1은 본 발명의 실시 형태에 따른 촬상/표시 장치의 외관 예에 대한 설명도이다.
도 2a 및 2b는 본 발명의 실시 형태에 따른 촬상 장치 및 표시 장치의 외관 예에 대한 설명도이다.
도 3은 본 발명의 실시 형태에 따른 시스템 구성예의 설명도이다.
도 4는 본 발명의 실시 형태에 따른 촬상/표시 장치의 블록도이다.
도 5는 본 발명의 실시 형태에 따른 촬상 장치의 블록도이다.
도 6은 본 발명의 실시 형태에 따른 표시 장치의 블록도이다.
도 7은 본 발명의 실시 형태에 따른 촬상 장치 및 표시 장치의 블록도이다.
도 8은 본 발명의 실시 형태에 따른 서버 장치의 블록도이다.
도 9는 본 발명의 실시 형태에 따른 시스템 동작 예 I의 플로우차트이다.
도 10은 본 발명의 실시 형태에 따른 카메라 위치/속도 관리 테이블의 설명도이다.
도 11은 본 발명의 실시 형태에 따른 시스템 동작 예 II의 설명도이다.
도 12는 본 발명의 실시 형태에 따른 속도 화상 데이터베이스의 설명도이다.
도 13은 본 발명의 실시 형태에 따른 시스템 동작 예 II의 플로우차트이다.
도 14a 내지 14d는 본 발명의 실시 형태에서 위치 및 속도를 지정할 때 이용되는 화상의 설명도이다.
도 15a 및 15d는 본 발명의 실시 형태에서 표시되는 촬상 화상의 설명도이 다.
<도면의 주요 부분에 대한 부호의 설명>
1 : 촬상/표시 장치
2 : 표시부
3 : 촬상부
5 : 음성 출력부
6 : 음성 입력부
10 : 시스템 콘트롤러
11 : 조작 입력부
12 : 위치 검출부
15 : 화상처리부
16 : 음성처리부
17 : 속도 검출부
25 : 저장부
26 : 통신부
28 : 일/시 계수부
30 : 촬상 장치
40 : 표시 장치
70 : 서버 장치

Claims (18)

  1. 표시 장치와, 이동체에 장착되어 화상 촬상을 행하는 촬상 장치와, 서버 장치를 포함하고, 상기 표시 장치와 상기 촬상 장치는 각각 상기 서버 장치와 통신 가능한 화상 표시 시스템으로서,
    상기 촬상 장치는,
    화상 촬상을 행하는 촬상 수단과,
    이동 속도를 검출하는 속도 검출 수단과,
    위치 정보와 이동 방향을 검출하는 위치 검출 수단과,
    현재 일시를 검출하는 일시 검출 수단과,
    상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 적어도 그 화상 데이터의 촬상 시에 상기 속도 검출 수단에서 검출된 속도 정보, 상기 위치 검출 수단에서 검출된 위치 정보와 이동 방향, 및 상기 일시 검출 수단에서 검출된 현재 일시 정보를 포함하는 부가 데이터를, 상기 서버 장치에 송신시키는 송신 제어 처리를 행하는 제어 수단
    을 구비하고,
    상기 서버 장치는,
    상기 촬상 장치로부터 송신되는 상기 화상 데이터 및 상기 부가 데이터를 저장하는 저장 수단과,
    상기 표시 장치로부터 송신되는 속도 지정 정보, 이동 방향을 포함하는 위치 지정 정보, 및 일시 지정 정보에 기초하여, 상기 저장 수단에 저장된 화상 데이터의 검색을 행하고, 검색된 화상 데이터를 재생하여 상기 표시 장치에 송신시키는 검색 송신 제어 처리를 행하는 제어 수단
    을 구비하고,
    상기 표시 장치는,
    화상 표시를 행하는 표시 수단과,
    입력에 기초하여, 속도 지정 정보를 설정하는 속도 지정 처리, 위치와 이동 방향을 지정하는 위치 지정 정보를 설정하는 위치 지정 처리, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리, 상기 서버 장치에 상기 속도 지정 정보, 상기 이동 방향을 포함하는 상기 위치 지정 정보 및 상기 일시 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 응답하여 상기 서버 장치로부터 송신되는 화상 데이터를 수신하고 수신한 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하는 제어 수단
    을 포함하는, 화상 표시 시스템.
  2. 제1항에 있어서, 상기 이동체는 사람, 또는 사람 이외의 생물, 또는 지상이동 기기, 또는 해상이동 기기, 또는 해중이동 기기, 또는 항공이동 기기, 또는 우주이동 기기 중 어느 하나인, 화상 표시 시스템.
  3. 화상 표시를 행하는 표시 수단과,
    외부의 서버 장치와의 사이에서 데이터 통신을 행하는 통신 수단과,
    입력에 기초하여 속도 지정 정보를 설정하는 속도 지정 처리, 위치와 이동 방향을 지정하는 위치 지정 정보를 설정하는 위치 지정 처리, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리를 행함과 함께, 상기 통신 수단에 의해 상기 서버 장치에 상기 속도 지정 정보, 상기 이동 방향을 포함하는 상기 위치 지정 정보 및 상기 일시 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 응답하여 상기 서버 장치로부터 송신되는 화상 데이터를 상기 통신 수단에 의해 수신시키고 수신된 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하는 제어 수단
    을 포함하는, 표시 장치.
  4. 제3항에 있어서, 상기 제어 수단은 또한 상기 표시 수단에 지도 화상을 표시시키는 지도 표시 처리를 행하는, 표시 장치.
  5. 제4항에 있어서, 상기 제어 수단은 상기 위치 지정 처리에서 상기 지도 화상에 대해 지정 입력된 지점의 위도, 경도의 정보를 상기 위치 지정 정보에 포함시키는, 표시 장치.
  6. 제3항에 있어서, 상기 표시 수단은 유저의 눈 앞쪽에 위치하도록 배치되어 화상 표시를 행하는 구조로 되어 있는, 표시 장치.
  7. 제3항에 있어서,
    화상 촬상을 행하는 촬상 수단과,
    이동 속도를 검출하는 속도 검출 수단과,
    위치 정보와 이동 방향을 검출하는 위치 검출 수단과,
    현재 일시를 검출하는 일시 검출 수단
    을 더 구비하고,
    상기 제어 수단은 상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 상기 속도 검출 수단에서 검출된 속도 정보, 상기 위치 검출 수단에서 검출된 위치 정보와 이동 방향, 및 상기 일시 검출 수단에서 검출된 현재 일시를, 상기 통신 수단으로부터 상기 서버 장치에 송신시키는 송신 제어 처리도 실행 가능한, 표시 장치.
  8. 입력에 기초하여 속도 지정 정보를 설정하는 속도 지정 처리 단계와,
    입력에 기초하여 위치와 이동 방향을 지정하는 위치 지정 정보를 설정하는 위치 지정 처리 단계와,
    입력에 기초하여 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리 단계와,
    외부의 서버 장치에 상기 속도 지정 정보, 이동 방향을 포함하는 위치 지정 정보 및 일시 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리 단계와,
    상기 화상 요구 송신 처리에 응답하여 상기 서버 장치로부터 송신되는 화상 데이터를 수신하고, 수신한 화상 데이터에 기초하는 표시를 행하는 표시 단계
    를 포함하는, 표시 방법.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
KR1020070126260A 2006-12-07 2007-12-06 화상 표시 시스템, 표시 장치, 표시 방법 Expired - Fee Related KR101422839B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00330833 2006-12-07
JP2006330833A JP4961984B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法

Publications (2)

Publication Number Publication Date
KR20080052475A KR20080052475A (ko) 2008-06-11
KR101422839B1 true KR101422839B1 (ko) 2014-07-24

Family

ID=39535257

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070126260A Expired - Fee Related KR101422839B1 (ko) 2006-12-07 2007-12-06 화상 표시 시스템, 표시 장치, 표시 방법

Country Status (5)

Country Link
US (2) US7876374B2 (ko)
EP (2) EP3203474A1 (ko)
JP (1) JP4961984B2 (ko)
KR (1) KR101422839B1 (ko)
CN (1) CN101207804B (ko)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5176311B2 (ja) * 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP4840395B2 (ja) 2008-04-18 2011-12-21 ソニー株式会社 情報処理装置、プログラム、情報処理方法、および情報処理システム
US8843067B2 (en) * 2008-11-17 2014-09-23 Panasonic Corporation Wireless communications apparatus and wireless communications method
JP2010139578A (ja) * 2008-12-10 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ
CN101826212B (zh) * 2009-03-02 2012-09-19 深圳富泰宏精密工业有限公司 Gps照片合成系统及方法
US8362973B2 (en) * 2009-05-19 2013-01-29 Honeywell International Inc. Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems
JP2011075848A (ja) * 2009-09-30 2011-04-14 Tokyo Metropolitan Government 情報表示システム
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9285589B2 (en) * 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9759917B2 (en) * 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
JP2012048659A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
PT105469A (pt) * 2011-01-04 2012-11-19 Marta Isabel Santos Paiva Ferraz Da Conceicao Fato interativo para videojogos em que se usam sensores eletrónicos e objetos físicos
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US8203502B1 (en) * 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US9176652B1 (en) * 2011-07-20 2015-11-03 Google Inc. Method and system for dynamically defining scroll-wheel functionality on a touchpad
JP5860634B2 (ja) * 2011-08-23 2016-02-16 任天堂株式会社 情報処理システム、情報処理方法、サーバプログラム、サーバ装置、および、サーバシステム
US9357135B2 (en) * 2011-08-29 2016-05-31 Nec Corporation Image display device and method
US9690100B1 (en) * 2011-09-22 2017-06-27 Sprint Communications Company L.P. Wireless communication system with a liquid crystal display embedded in an optical lens
JP5884502B2 (ja) * 2012-01-18 2016-03-15 ソニー株式会社 ヘッドマウントディスプレイ
JP2013168065A (ja) 2012-02-16 2013-08-29 Sony Corp 情報処理装置、端末装置、情報処理方法、及び状況表示方法
WO2013132712A1 (ja) * 2012-03-07 2013-09-12 三菱電機株式会社 ナビゲーション装置
US9152226B2 (en) * 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
JP2014045438A (ja) * 2012-08-28 2014-03-13 Nec Corp 遠隔作業支援システム、遠隔作業支援方法および遠隔作業支援プログラム
CN104781873B (zh) 2012-11-13 2017-06-06 索尼公司 图像显示装置、图像显示方法、移动装置、图像显示系统
JP2014165706A (ja) * 2013-02-26 2014-09-08 Sony Corp 信号処理装置および記憶媒体
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US9317114B2 (en) 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination
US9146618B2 (en) 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
CN103647944A (zh) * 2013-11-30 2014-03-19 山东信通电器有限公司 基于lte网络的多模工业智能穿戴装置
US9714832B2 (en) * 2014-03-13 2017-07-25 Google Inc. Varying map information density based on the speed of the vehicle
JP2016015009A (ja) * 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
KR20170130952A (ko) * 2016-05-20 2017-11-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
US11402635B1 (en) * 2018-05-24 2022-08-02 Facebook Technologies, Llc Systems and methods for measuring visual refractive error
CN110910814A (zh) * 2018-08-28 2020-03-24 杭州海康威视数字技术股份有限公司 Led模组校正方法、装置、led显示屏及存储介质
KR20210145485A (ko) * 2020-05-25 2021-12-02 (주)이머시브캐스트 인카 클라우드 vr 장치 및 방법
WO2022018836A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304351A (ja) * 1997-02-25 1998-11-13 Masanobu Kujirada 動物移動映像等提供システム
JP2006065368A (ja) * 2004-08-24 2006-03-09 Sony Corp 画像表示装置,画像表示方法,およびコンピュータプログラム
JP2006186645A (ja) * 2004-12-27 2006-07-13 Kyocera Corp 移動カメラシステム

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199048A (ja) * 1993-12-28 1995-08-04 Fuji Photo Optical Co Ltd 被写体の速度記録機能付カメラ
US5521630A (en) * 1994-04-04 1996-05-28 International Business Machines Corporation Frame sampling scheme for video scanning in a video-on-demand system
JP3793773B2 (ja) 1994-06-20 2006-07-05 株式会社東芝 無線通信方法、無線通信基地局および無線端末
US6181371B1 (en) 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
JPH0965188A (ja) 1995-08-24 1997-03-07 Matsushita Electric Ind Co Ltd ビデオカメラ
JP3570163B2 (ja) 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
WO1999023524A1 (en) 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
JPH11164186A (ja) 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画像記録装置
JP2002508636A (ja) 1998-03-25 2002-03-19 ダブリュ スティーヴン ジー マン ビューファインダ手段を備えた着用可能なカメラ・システム
US7084903B2 (en) * 1998-05-18 2006-08-01 International Business Machines Corporation Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7076737B2 (en) 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6466862B1 (en) 1999-04-19 2002-10-15 Bruce DeKock System for providing traffic information
US20060074546A1 (en) 1999-04-19 2006-04-06 Dekock Bruce W System for providing traffic information
WO2001043104A1 (en) 1999-12-10 2001-06-14 David Sitrick Methodology, apparatus, and system for electronic visualization of traffic conditions
JP2001183735A (ja) 1999-12-27 2001-07-06 Fuji Photo Film Co Ltd 撮像装置および方法
US6629104B1 (en) 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
JP2002169809A (ja) 2000-12-01 2002-06-14 Minolta Co Ltd 画像管理装置、画像管理方法及び記録媒体
KR20020069382A (ko) 2001-02-26 2002-09-04 학교법인 한양학원 바이오피드백 센서가 부착된 가상 현실 영상 제시 장치
EP1744286A3 (en) 2001-03-28 2008-11-05 FUJIFILM Corporation Work data collection method
TW540235B (en) 2001-05-10 2003-07-01 Ibm System and method for enhancing broadcast programs with information on the world wide web
TWI220036B (en) 2001-05-10 2004-08-01 Ibm System and method for enhancing broadcast or recorded radio or television programs with information on the world wide web
TWI256250B (en) 2001-05-10 2006-06-01 Ibm System and method for enhancing recorded radio or television programs with information on the world wide web
JP3887798B2 (ja) 2001-09-14 2007-02-28 日本光電工業株式会社 生体情報表示方法及び生体情報表示装置
US20030117505A1 (en) 2001-12-20 2003-06-26 Sasaki Gary David Intermediate memory for a digital camera
EP1324274A3 (en) 2001-12-28 2005-11-02 Matsushita Electric Industrial Co., Ltd. Vehicle information recording system
JP4174244B2 (ja) 2002-06-20 2008-10-29 キヤノン株式会社 画像撮影装置及びその制御方法
JP2004049309A (ja) 2002-07-16 2004-02-19 National Trust:Kk 被看護・被介護者の監視システム
WO2004017249A2 (en) 2002-08-14 2004-02-26 Deja View, Inc. Recording device that stores buffered digital signals to memory flashcards
GB2394852B (en) 2002-10-31 2006-12-20 Hewlett Packard Co Image capture systems using motion detection
US7233684B2 (en) 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP2004194996A (ja) 2002-12-19 2004-07-15 Fukuda Denshi Co Ltd 生体情報表示装置
US20040174443A1 (en) * 2003-03-07 2004-09-09 Simske Steven J. System and method for storing of records in a database
GB2403366B (en) 2003-06-27 2007-12-27 Hewlett Packard Development Co Camera mounting and image capture
JP2005051654A (ja) 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ記録方法、コンテンツ記録メディア
JP4200370B2 (ja) 2003-08-12 2008-12-24 ソニー株式会社 記録装置、記録再生装置、再生装置、記録方法、記録再生方法および再生方法
JP3931889B2 (ja) 2003-08-19 2007-06-20 ソニー株式会社 画像表示システム、画像表示装置、画像表示方法
CN100482149C (zh) 2003-08-19 2009-04-29 索尼株式会社 图像显示系统、图像显示装置及图像显示方法
JP3968522B2 (ja) 2003-10-06 2007-08-29 ソニー株式会社 記録装置、及び記録方法
JP2005124909A (ja) 2003-10-24 2005-05-19 Sony Corp 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法
JP2005141281A (ja) 2003-11-04 2005-06-02 Victor Co Of Japan Ltd コンテンツ検索システム
JP2005172851A (ja) 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP4407284B2 (ja) 2004-01-06 2010-02-03 カシオ計算機株式会社 耳装着型電子機器、移動履歴表示装置
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
JP2005252732A (ja) 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP2005250977A (ja) 2004-03-05 2005-09-15 Nikon Corp 撮影装置、画像再生装置、画像鑑賞室、データ蓄積/解析装置、銀塩カメラ、スキャナ
JP2005260892A (ja) 2004-03-15 2005-09-22 Nec Corp 心象風景記録機
JP4373286B2 (ja) 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
JP2005318973A (ja) 2004-05-07 2005-11-17 Sony Corp 生体センサ装置、コンテンツ再生方法およびコンテンツ再生装置
JP4459717B2 (ja) 2004-05-26 2010-04-28 富士フイルム株式会社 地図更新システム
JP2006020237A (ja) * 2004-07-05 2006-01-19 Sony Ericsson Mobilecommunications Japan Inc 画像処理プログラム、遠隔操作プログラム、画像処理装置及び遠隔操作装置
JP3873994B2 (ja) 2004-07-14 2007-01-31 コニカミノルタフォトイメージング株式会社 撮像装置、及び画像取得方法
JP3931895B2 (ja) 2004-07-29 2007-06-20 株式会社デンソー 生体情報表示装置
JP2006080644A (ja) 2004-09-07 2006-03-23 Toshiba Tec Corp カメラ
JP4352332B2 (ja) 2004-09-16 2009-10-28 富士フイルム株式会社 画像採点方法及び画像採点システム
JP2006087829A (ja) 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 生体情報表示装置
JP2006126891A (ja) 2004-10-26 2006-05-18 Sony Corp 生体情報登録方法、生体情報を利用する情報提供システム、端末及びサーバ
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US20060115130A1 (en) 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
JP2006172146A (ja) 2004-12-16 2006-06-29 Sharp Corp データ管理機能を有する機器、及び、データ管理プログラム
JP2006279859A (ja) 2005-03-30 2006-10-12 Hitachi Ltd 移動体移動実態情報提供システム、位置情報収集装置、カーナビ装置および移動体移動実態情報提供方法
JP4975272B2 (ja) * 2005-05-30 2012-07-11 京セラ株式会社 ユーザ端末
JP2007041964A (ja) 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP4659569B2 (ja) 2005-09-13 2011-03-30 キヤノン株式会社 撮像装置
JP2007011391A (ja) 2006-07-18 2007-01-18 National Institute Of Information & Communication Technology 主観的地図作成システム
JP5092357B2 (ja) 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5023663B2 (ja) 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP5074752B2 (ja) 2006-12-07 2012-11-14 キヤノン株式会社 画像要求方法
JP4367663B2 (ja) 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
FR2918104B1 (fr) * 2007-06-27 2009-10-09 Snecma Sa Dispositif de refroidissement des alveoles d'un disque de rotor de turbomachine a double alimentation en air.
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304351A (ja) * 1997-02-25 1998-11-13 Masanobu Kujirada 動物移動映像等提供システム
JP2006065368A (ja) * 2004-08-24 2006-03-09 Sony Corp 画像表示装置,画像表示方法,およびコンピュータプログラム
JP2006186645A (ja) * 2004-12-27 2006-07-13 Kyocera Corp 移動カメラシステム

Also Published As

Publication number Publication date
CN101207804A (zh) 2008-06-25
US20080259199A1 (en) 2008-10-23
JP2008147865A (ja) 2008-06-26
KR20080052475A (ko) 2008-06-11
JP4961984B2 (ja) 2012-06-27
US20100220037A1 (en) 2010-09-02
US7876374B2 (en) 2011-01-25
US8009219B2 (en) 2011-08-30
EP3203474A1 (en) 2017-08-09
CN101207804B (zh) 2011-01-26
EP1956600A1 (en) 2008-08-13
EP1956600B1 (en) 2017-05-03

Similar Documents

Publication Publication Date Title
KR101422839B1 (ko) 화상 표시 시스템, 표시 장치, 표시 방법
US10187612B2 (en) Display apparatus for displaying image data received from an image pickup apparatus attached to a moving body specified by specification information
JP5176311B2 (ja) 画像表示システム、表示装置、表示方法
JP5162928B2 (ja) 画像処理装置、画像処理方法、画像処理システム
JP5630513B2 (ja) 表示装置、表示方法、画像表示システム
JP2013034237A (ja) 画像処理装置、画像処理方法、画像処理システム

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

A201 Request for examination
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20170707

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20190718

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20190718

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301