WO2016060293A1 - Image information display device and control method therefor - Google Patents

Image information display device and control method therefor Download PDF

Info

Publication number
WO2016060293A1
WO2016060293A1 PCT/KR2014/009687 KR2014009687W WO2016060293A1 WO 2016060293 A1 WO2016060293 A1 WO 2016060293A1 KR 2014009687 W KR2014009687 W KR 2014009687W WO 2016060293 A1 WO2016060293 A1 WO 2016060293A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
image information
function
display
control unit
Prior art date
Application number
PCT/KR2014/009687
Other languages
French (fr)
Korean (ko)
Inventor
함준석
신윤호
김상래
정성재
박정아
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2014/009687 priority Critical patent/WO2016060293A1/en
Publication of WO2016060293A1 publication Critical patent/WO2016060293A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus

Definitions

  • the present invention relates to a glass type image information display apparatus capable of displaying image information and a method of controlling the apparatus.
  • image information display devices continue to develop in newer forms. For example, if the image information display device is conventionally displayed in a form of displaying information on a fixed device such as a TV or a monitor, it is now light and small enough to be carried by a user, and thus, in various forms such as a mobile terminal or a notebook. It has been developed.
  • the image information display device has become smaller and has evolved into a wearable form that a user can wear like a watch or glasses. Accordingly, various devices such as smart watches are emerging, and accordingly, technology for displaying image information has been developed day by day.
  • displays capable of displaying image information are also being developed in new forms thanks to the development of these technologies.
  • the current display may be manufactured in a transparent form through which objects located on the back of the display may be seen, and thus may be implemented in the form of glasses.
  • Such a glass-type image information display device can not only display image information according to a user's selection, but also allow the user to visually check the external environment through the display.
  • such a glass-type image information display device as described above can recognize the external environment through the display, it can provide a variety of functions using the same. Accordingly, there is an active research into a method of displaying image information more effectively in the glass type image information display apparatus.
  • An object of the present invention is to provide an image information display apparatus and a method of controlling the apparatus that can display image information more effectively based on an external environment in a glass type image information display apparatus.
  • the image information display device is formed to be transparent to reflect the objects located on the rear side and the user
  • a main body including a plurality of glass display units respectively corresponding to both eyes, a sensing unit detecting a situation around the main body, a memory including information about the superior and non-eligible eyes of the user, and at least one of the plurality of display units.
  • the controller may further include a controller configured to display image information related to multimedia content and image information related to at least one of functions executable on the image information display apparatus. Based on the results of detecting the situation of the current user to determine the situation of the user, Depending on the result of the determination to the image information related to the function in which the execution characterized in that displayed on the display unit corresponding to within the user's advantage.
  • the controller may determine whether the user's position is moved based on a result of sensing the surrounding situation of the main body, and according to the determination result, the image information related to the function is stored in the user's superiority.
  • the preset function is displayed on a corresponding display unit, wherein the preset function is a function related to the navigation function and the navigation function.
  • the sensing unit includes a camera that receives an image outside the main body, and the control unit is configured to determine the situation of the user based on a degree that an image received from the camera is changed within a predetermined time. It is characterized by.
  • the sensing unit further comprises at least one sensor for detecting the movement of the user, the control unit, in the state where the user's position is moved, to the user's movement detected from the sensing unit It is characterized by determining the situation of the user based on.
  • the controller determines that the user is moving by using a vehicle and based on whether the user is a driver of the vehicle. And displaying image information related to the function on a display unit corresponding to the user's superiority.
  • the controller may determine whether the user is a driver driving the vehicle based on whether the vehicle in which the user rides is a preset vehicle.
  • control unit through the vehicle control unit for controlling the overall driving of the vehicle means for detecting the position of the driver's seat of the vehicle, the user based on the position of the driver's seat and the position of the main body the transportation It is characterized by determining whether the driver is driving the means.
  • the function related to the navigation function may include a function of displaying information about a feature around a user's current location.
  • the preset function may include a function executed by a preset event, wherein the preset event occurs when a message is received or a call is received.
  • the controller evaluates the importance of the generated event and based on the evaluated importance, the image information related to the generated event corresponds to the superiority of the user. It is characterized by displaying on the display unit.
  • the controller may evaluate the importance based on text included in the message.
  • control unit searches whether the text included in the message includes a preset word, and when the at least one preset word is searched for, adding the importance scores differently matched to each word. Based on the evaluation of the importance of the message.
  • the controller may evaluate the importance based on the telephone number of the received call.
  • the controller may detect surrounding situations of different main bodies according to the executed function.
  • the preset function includes a function of displaying notification information for notifying the user when an object approaching the user is detected within a predetermined distance, and the controller controls the environment around the main body.
  • notification information for notifying the approach of the object is displayed on the display unit corresponding to the superiority of the user. Characterized in that.
  • the controller may classify the type of the multimedia content and display image information related to the multimedia content in a display unit corresponding to the user's superiority according to the type of the multimedia content.
  • the control unit corresponds to notification information of the generated event within a user's superiority. It is characterized by displaying on the display unit.
  • the control unit may determine the position of the image information displayed on the display unit corresponding to the superiority, based on a result of detecting a situation around the user.
  • the control unit may display the image information in an area other than a display area in which preset objects are identifiably displayed among objects displayed on the display unit corresponding to the superiority.
  • the control method of the image information display apparatus the step of determining whether or not to execute a predetermined function, and the predetermined function is executed And determining a situation of a user by detecting a situation around the main body of the image information display device, and based on the determined situation of the user, image information related to the execution of the preset function is stored in the plurality of glasses. And displaying on a display unit corresponding to the superiority of the user among the display units.
  • the present invention determines whether the image information to be displayed on the display unit should be recognized by the user sooner, so that the image information is output to the specific display unit, so that the user It is advantageous in that image information can be recognized more quickly and accurately.
  • the present invention senses the surrounding situation, and based on the detected surrounding situation to output image information related to a predetermined function or event on a specific display, the user It is advantageous in that image information can be recognized quickly and accurately.
  • FIG. 1 is a block diagram showing a block configuration of an image information display apparatus according to an embodiment of the present invention.
  • FIG. 2 is an exemplary diagram illustrating an example in which an image information display apparatus according to an exemplary embodiment of the present invention is implemented in a glass type.
  • FIG. 3 is a flowchart illustrating an operation of displaying image information based on a currently performed function and a sensed surrounding situation by an image information display apparatus according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating an operation of evaluating the importance of an event generated and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an operation process of detecting an ambient situation and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
  • FIG. 6 is an exemplary view illustrating an example in which image information is displayed in the image information display apparatus according to an exemplary embodiment of the present invention.
  • FIG. 7 is an exemplary view showing another example in which image information is displayed in the image information display apparatus according to the embodiment of the present invention.
  • the image information display device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player, a navigation, and a slate PC.
  • FIG. 1 is a block diagram showing a block configuration of an image information display device according to an exemplary embodiment of the present invention.
  • an image information display apparatus 100 may include a display 130, a detector 120, a memory 140, and the like.
  • the components shown in FIG. 1 are not essential in implementing an image information display apparatus according to an exemplary embodiment of the present invention, and thus, the image information display apparatus described in the present specification may have more components than those listed above. May have
  • the image information display apparatus according to an embodiment of the present invention may further include a sound output unit, a wireless communication unit, and the like. Alternatively, on the contrary, it may have fewer components than described above.
  • the display unit 130 among the components displays (outputs) information processed by the image information display apparatus 100.
  • the display unit 130 may display execution screen information of an application program driven by the image information display apparatus 100 or user interface (UI) and graphical user interface (GUI) information according to the execution screen information. Can be.
  • UI user interface
  • GUI graphical user interface
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • the display 130 may be provided in plural.
  • the first and second display units corresponding to both eyes of the user may be provided.
  • 132 and 134 may be implemented.
  • the display 130 may display the same image information on the first and second display units 132 and 134 or display different image information, respectively, under the control of the controller 110.
  • the image information may be displayed only in any one of the control unit 110.
  • the sensor 120 may include at least one sensor for sensing the surrounding environment information surrounding the image information display apparatus 100 or a user's input.
  • the detector 120 may include a location sensor, and the location sensor may detect the location of the current image information display device 100.
  • Representative examples of such position sensing sensors include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • WiFi Wireless Fidelity
  • the mobile terminal may acquire the location of the image information display apparatus 100 using a signal transmitted from a GPS satellite.
  • the image information display apparatus 100 may obtain the position of the image information display apparatus 100 based on the information of the WIFI module and the wireless access point (AP) that transmits or receives the wireless signal.
  • the location information sensor is not limited to a component that directly calculates or acquires the location of the image information display apparatus 100.
  • the sensing unit 120 may include an acceleration sensor, a magnetic sensor, a gravity sensor, a gyroscope sensor, a motion sensor, a motion sensor, and an optical sensor. , For example, a camera).
  • the image information display apparatus 100 disclosed in the present disclosure may utilize a combination of information detected by at least two or more of these sensors.
  • the memory 140 may store a program for the operation of the controller 110, and may temporarily store input / output data (eg, a still image, a video, etc.).
  • the memory 140 may store data relating to sound of various patterns output from the image information display apparatus 100.
  • the memory 140 may store a plurality of application programs or applications that are driven by the image information display apparatus 100, data for operating the image information display apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • At least some of these applications may be used for the basic functions of the image information display apparatus 100 (for example, a function of adjusting the size and resolution of the image information such as a moving image or a still image, a focal length, etc.) It may exist on the image information display device 100 from the time of shipment.
  • the application program is stored in the memory 140, installed on the image information display apparatus 100, and driven to perform an operation (or function) of the image information display apparatus 100 by the controller 110. Can be.
  • the memory 140 may include a storage medium of a type such as a flash memory type, a hard disk type, a card type memory (eg, SD or XD memory, etc.).
  • the projection apparatus 100 may be operated in connection with a web storage that performs a storage function of the memory 140 on the Internet.
  • the controller 110 In addition to the operation related to the application program, the controller 110 typically controls the overall operation of the screen information display apparatus 100.
  • the controller 110 processes at least one of the display units 132 and 134 by using the above-described components to process signals, data, information, and the like, which are input or output, or to drive an application program stored in the memory 140. It is possible to display a single function or to provide a function appropriate to a user with respect to displayed image information.
  • the controller 110 may display image information corresponding to a function selected by a user on at least one of the display units 132 and 134.
  • the controller 110 may display image information on the selected function only on all or one of the display units 132 and 134 based on the function selected by the user.
  • the controller 110 may select a display unit to display the image information according to the type of the function selected by the user. That is, when a function selected by a user is a function that is preset to be displayed on both the display units 132 and 134, the controller 110 may output image information about the selected function to both the display units 132 and 134. have. For example, when the function selected by the user is a function of playing a multimedia content such as a movie or a drama, the controller 110 may output image information about the multimedia content to both the display units 132 and 134. However, if the function selected by the user is not a function of playing the multimedia content, the controller 110 may display image information corresponding to the currently selected function on only one of the display units 132 and 134.
  • the multimedia content may be preset by the user or may be preset when the image information display apparatus 100 according to the embodiment of the present invention is shipped.
  • content that a user can comfortably enjoy for interest such as a movie or a game, may be preset as the multimedia content.
  • the controller 110 may evaluate the importance of the image information to be displayed on the display units 132 and 134 so that the image information is displayed on a specific display unit among the display units 132 and 134. For example, if the image information to be displayed on the display units 132 and 134 is not a function of playing the multimedia content, the controller 110 confirms the image information to be displayed on the display units 132 and 134 by the user. It is also possible to determine whether or not to and to display the image information related to the selected function according to the determined result on the particular display unit.
  • the controller 110 may determine whether the image information to be displayed on the display units 132 and 134 should be checked by the user, and the surrounding situation of the image information display apparatus 100 and the currently selected function. The result of detecting is available. That is, if it is determined that the user is moving as a result of sensing the environment around the user, the controller 110 must check the function for displaying the current location of the user or a function related thereto. Can be determined as information to be recognized. In this case, the controller 110 may allow the image information to be displayed on a specific display unit among the display units 132 and 134 in the case of the image information determined to be recognized by the user.
  • the controller 110 may display the image information determined to be recognized by the user on a display unit corresponding to the user's superiority. This is because, when the image information display apparatus 100 according to the exemplary embodiment of the present invention has a glass shape, when the image information is displayed on the display unit at the position corresponding to the upper eye, the user may recognize the information more quickly and accurately.
  • the term “right yuan” refers to the eyes of the user's binocular that they use more consciously or unconsciously than the other. Accordingly, the visual information recognized through the superior eye can be recognized faster and more accurately than the visual information recognized through the unbiased eye.
  • Such superiority may be different for each person, and the controller 110 may receive a test result according to a preset method or use the result of detecting the superiority of the user using a test application stored in the memory 140. .
  • the detected superiority information may be stored in the memory 140, and may be provided to the controller 110 when requested by the controller 110.
  • the controller 110 may select a display unit corresponding to the user's superiority using information on the user's superiority stored in the memory 140. Accordingly, the controller 110 may display the image information determined to be recognized by the user in a display unit corresponding to the user's superiority.
  • the controller 110 may determine image information that the user must recognize based on a function that is currently executed in the image information display apparatus 100. For example, if a function to be executed based on a user's selection or a result of sensing an environment around the user is one of preset functions, the controller 110 must recognize the image information related to the function. It can also determine with image information. The controller 110 may display the image information on the display unit corresponding to the user's superiority.
  • the preset functions may be, for example, a function that outputs information that a user must recognize.
  • these features provide information about the user's current location or other information related to the current location (e.g. navigation-related features such as displaying navigation or features around the user's location).
  • the present invention may be a function for recognizing an object approaching a certain distance or the like and informing the user of the object. These functions may be previously selected by the user, or may be preset in advance from the factory when the image information display apparatus 100 according to an exemplary embodiment of the present invention is provided.
  • the controller 110 may display the image information based on a result of detecting the user's surrounding environment (the display unit corresponding to the user's edge). Of course, you can make it appear). For example, when the navigation function is performed according to the user's selection, if the user's location moves while there is little user's movement as a result of sensing the user's surroundings, the control unit 110 controls that the user transports the vehicle. It can be determined to move by means. In this case, although the navigation function is a function included in the preset function, the controller 110 may not display image information related to the navigation function on the display unit corresponding to the user's superiority.
  • the controller 110 detects the surrounding environment of the user, and when the illuminance is lower than a predetermined level (that is, in a dark area where the illuminance is lower than a predetermined level).
  • the notification information may be displayed on the display unit corresponding to the user's edge.
  • the sound output unit may output audio data related to image information currently displayed on the display units 132 and 134 under the control of the controller 110.
  • the sound output unit may include a connection port that may be connected to a connectable sound output device, for example, an earphone or the like, and the sound data transmitted through the connection port may be controlled by the controller 110. Volume may be output through the connected sound output device according to.
  • the image information display apparatus 100 may further include a communication module capable of performing a communication function with another external device or a preset external server.
  • the communication module uses the communication module such as Bluetooth, WIFI (Wireless-Fidelity), infrared communication, near field communication (NFC), and the like to communicate the image information display device 100 with the wireless communication system.
  • the short range wireless communication network may be short range wireless personal area networks.
  • the other mobile terminal is a wearable device capable of exchanging (or interworking) data with the image information display apparatus 100 according to the present invention, for example, a smartwatch, a smart glasses ( smart glass, head mounted display (HMD).
  • a smartwatch for example, a smartwatch, a smart glasses ( smart glass, head mounted display (HMD).
  • HMD head mounted display
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the image information display apparatus 100 according to various embodiments described below.
  • the operation, control, or control method of the image information display apparatus 100 may be implemented by driving at least one application program stored in the memory 140.
  • the following various embodiments may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • FIG. 2 is an exemplary diagram illustrating an example in which an image information display apparatus according to an exemplary embodiment of the present invention is implemented in a glass type.
  • the image information providing apparatus 200 may be manufactured in the form of glasses as shown in FIG. 2 and may be configured to be worn on the head of a human body. And it may be provided with a frame portion (case, housing, etc.) for this. In addition, the frame portion 201 may be formed of a flexible material to facilitate wearing.
  • the frame part 201 is supported by the head and provides a space in which various components are mounted. As illustrated, electronic components such as the control module 280, the sound output module 252, and the like may be mounted in the frame unit.
  • the frame unit 201 may include a plurality of display units 251a and 251b disposed at positions corresponding to the left eye and the right eye, respectively.
  • the display units 251a and 251b have light transmittance and may output image information.
  • the image information refers to a virtual graphic object generated by the glass type image information providing apparatus 200 or received from an external device.
  • the virtual object may mean an application, an icon corresponding to the icon, content, or a UI in a call mode. This may be generated by the controller 110 or received from an eyeglass terminal such as a smart phone.
  • the display units 251a and 251b have light transmittance, the user may see the external environment through the display units 251a and 251b.
  • the display units 251a and 251b may display an external environment and output information on any external object constituting the external environment.
  • the external object may be a business card, a person or an external device that can communicate with each other, or a building or a building that becomes a landmark of a specific region.
  • the control module 280 is configured to control various electronic components included in the glass type image information providing apparatus 200.
  • the control module 280 may be understood as a configuration corresponding to the controller 110 described above.
  • the control module 280 is illustrated to be installed in the frame portion 201 on the head.
  • the position of the control module 280 is not limited thereto.
  • the display units 251a and 251b may be implemented in the form of a head mounted display (HMD).
  • HMD type is a display method mounted on the head and showing an image directly in front of the user's eyes. Accordingly, when the user wears the glass type image information providing apparatus 200, an image may be directly provided in front of the user's eyes through at least one of the display units 251a and 251b.
  • the display units 251a and 251b may project an image to the eyes of a user using a prism.
  • the prism can be formed translucent so that the user can see the projected image and the general field of view (the range the user looks through the eye) together.
  • the glass-type image information providing apparatus 200 may provide an augmented reality (AR) that displays a virtual image by superimposing a virtual image on a real image or a background using the characteristics of the display.
  • AR augmented reality
  • the camera 221 is disposed adjacent to at least one of the left eye and the right eye, and is formed to capture an image of the front. Since the camera 221 is located adjacent to the eye, the camera 221 may acquire a scene viewed by the user as an image.
  • the camera 221 may be installed in the frame unit 201, and may be provided in plural to acquire a stereoscopic image.
  • the glass type image information providing apparatus 200 may include a user input unit 223 manipulated to receive a control command.
  • the user input unit 223 may be adopted in any manner as long as it is a tactile manner in which the user operates while having a tactile feeling such as touch or push.
  • the glass type image information providing apparatus 200 may include a microphone (not shown) that receives sound and processes the sound into electrical voice data, and a sound output module 252 that outputs sound.
  • the sound output module 252 may be configured to transmit sound in a general sound output method or a bone conduction method.
  • the sound output module 252 is implemented in a bone conduction manner, when the user wears the glass type image information providing apparatus 200, the sound output module 252 is in close contact with the head and vibrates the skull to transmit sound. Done.
  • the glass-type image information providing apparatus 200 may receive a voice signal of the user through the microphone and analyze the same, thereby performing a function according to the voice signal of the user.
  • the image information providing apparatus 200 has a glass type, that is, a form of glasses as described above.
  • a glass type that is, a form of glasses as described above.
  • FIG. 3 is a flowchart illustrating an operation of displaying image information based on a currently performed function and a sensed surrounding situation by an image information display apparatus according to an exemplary embodiment.
  • the controller 110 of the image information display apparatus 100 may display image information according to a function selected by a user on at least one of the display units 132 and 134.
  • the controller 110 may display image information related to the multimedia content selected by the user on at least one of the display units 132 and 134 in operation S300. .
  • the controller 110 may detect whether any one of the preset functions is executed in the image information display apparatus 100 (S302). For example, when the user executes a function different from the function currently performed on the current image information display apparatus 100 in step S302, or a specific event (for example, receiving or presetting a message) When a change in the surrounding environment occurs, a function corresponding to the occurrence of the event may be detected.
  • the controller 110 may determine whether the executed function is one of preset functions as a function of displaying image information that the user must recognize. Based on the determination result of step S302, image information related to the executed function may be displayed on the display unit corresponding to the user's superiority among the display units 132 and 134 (S304).
  • the controller 110 may determine the position of the image information displayed on the display unit corresponding to the dominant position based on the result of detecting the situation around the user. That is, the controller 110 may allow the image information to be displayed in an area other than a display area in which preset objects are identifiably displayed among the objects reflected in the display unit corresponding to the superiority.
  • the preset thing may be variously determined according to a user's selection or a predetermined bar.
  • the preset object may be an object, such as a traffic light or a sign, among objects reflected through the display unit corresponding to the superiority.
  • the controller 110 may recognize these objects by using the result detected by the detector 120.
  • the detector 120 may recognize an object corresponding to a traffic light or a sign from an image input through a camera.
  • the controller 110 may recognize this as a sign or the like.
  • the controller 110 may recognize when there is an object displaying a specific symbol such as a pedestrian display or a stop display, or when an object in which red, blue, or yellow is arranged in a line is detected as a traffic light. .
  • the controller 110 may know a position where objects corresponding to the traffic light or sign are displayed on the display unit corresponding to the upper edge. In this case, the controller 110 may display the image information in another area except for a location where objects such as a traffic light or a sign are displayed on the display unit corresponding to the upper eye. Accordingly, in the present invention, it is possible to prevent a situation in which the user cannot confirm important information such as a sign or a traffic light by the displayed image information.
  • the controller 110 may recognize various objects detected as a result of the detection of the sensor 120 using a database for recognizing a shape of the object.
  • the objects may be preset by a user, or may be obtained from the manufacturer of the image information display apparatus 100 according to an exemplary embodiment of the present disclosure or from a manufacturer who manufactures the image information display apparatus 100 according to an exemplary embodiment of the present disclosure.
  • the controller 110 may cause the image information to be output to an area other than the area where the objects are displayed.
  • the controller 110 may display the image information of a smaller size by adjusting the size of the region where the image information is displayed if the region where the image information is displayed is insufficient by the region where the objects are displayed.
  • step S304 the control unit 110 evaluates the importance of the image information related to the executed function or the generated event based on a preset criterion based on the currently generated event, and the related image information is based on the evaluated result. It may be displayed on the display unit corresponding to the superiority of. As described above, the operation of the controller 110 evaluating the importance of the image information related to the currently generated event will be described in detail with reference to FIG. 4.
  • step S304 even if the control unit 110 of the image information display device 100 according to an embodiment of the present invention, even if any one of the preset functions are executed, the image information display device 100
  • the user's situation may be determined based on the surrounding situation, and the image information may be displayed on a specific display unit according to a result of the user's situation being determined.
  • the controller 110 may further detect a surrounding situation and determine a state of the user whether the user is moving or stopped based on the detected surrounding situation. If the user is moving, the user may determine whether the user is moving through a vehicle such as a vehicle or whether the user is running or walking.
  • image information related to a function currently executed may be displayed on the display unit corresponding to the user's superiority.
  • an operation process of detecting the surrounding situation and displaying image information on a specific display unit will be described in more detail with reference to FIG. 5.
  • FIG. 4 is a flowchart illustrating an operation of evaluating the importance of an event generated and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
  • control unit 110 of the image information display apparatus 100 not only performs any one of the functions preset in step S302, When an event occurs, it has been described that image information can be displayed on a display unit corresponding to the user's superiority based on the generated event.
  • 4 illustrates an operation process of evaluating the importance of an event generated by the controller 110 of the image information display apparatus 100 according to an exemplary embodiment of the present disclosure.
  • the controller 110 may detect this (S400).
  • the event detected at step S400 may be various. That is, the reception of a call or the reception of a message related to a short messaging service (SMS), a social network service (SNS), or the like, or generation of alarm information indicating that a predetermined time has been reached or a specific location has been reached, and Such an event may include a low battery or generation of notification information for notifying a predetermined schedule.
  • SMS short messaging service
  • SNS social network service
  • the controller 110 may detect the occurrence of such an event in step S400. In addition, the controller 110 may determine whether a function executed by a currently generated event is a preset function (S402). For example, when an event such as a call incoming or a message is received, the controller 110 may determine that a call function or an SMS or SNS function corresponds to the generated event. The controller 110 may determine whether a function corresponding to the generated event is a preset function. If the function is not a preset function, the controller 110 may display image information related to the event on at least one of the display units 132 and 134 (S410). .
  • step S402 if it is determined in step S402 that the function executed by the currently generated event corresponds to the preset functions, the control unit 110 proceeds to step S304 of FIG. 3 and the image related to the currently generated event.
  • the information may be displayed on the display unit corresponding to the superiority of the user among the display units 132 and 134.
  • the controller 110 further evaluates the importance of the currently occurring event, and only when the evaluated importance is equal to or greater than a preset level, the image information related to the event is displayed in a specific display unit (the display unit corresponding to the user's superiority). It may be displayed on (S406).
  • These criteria may be set differently for each type of event. For example, when an event currently occurring is a call reception, the telephone number information of the incoming call may be a criterion for evaluating the importance of the event, or when the event is a reception of a message, the content included in the message is Can be a criterion for evaluating the importance of an event.
  • the process may proceed to step S304 of FIG. 3 and display on the display unit corresponding to the user's superiority.
  • the controller 110 may evaluate the importance of the incoming call higher than the preset level in the case of a predetermined telephone number (for example, a telephone number stored in advance). In this case, the controller 110 may display the image information related to the incoming call only on the display unit corresponding to the user's superiority only in the call stored in advance at the step S304.
  • a predetermined telephone number for example, a telephone number stored in advance.
  • the controller 110 may evaluate the importance of the received message according to whether a preset word is included in the content of the received message. That is, for example, when a message includes words such as 'important', 'urgent', 'must', 'immediately contacted', the controller 110 may determine the message as a message of high importance, This may be displayed on the display unit corresponding to the superiority of the user in step S304.
  • the words for evaluating the importance of the message may be set by the user in advance, and may be set to match different importance scores for each word.
  • step S406 the controller 110 searches for preset words among the words included in the message, adds importance scores corresponding to the retrieved words, and based on the summed score, It may be determined whether the importance level is above a predetermined level.
  • the controller 110 proceeds to step S304 of FIG. 3 and corresponds to the user's superiority among the display units 132 and 134 for image information indicating the content of the received message. It can be displayed on the display unit.
  • step S304 the user's state is determined by further considering the result of sensing the surrounding situation of the image information display apparatus 100, and specific image information related to the currently executed function or event is displayed. It was mentioned that it may be indicated in the wealth.
  • This surrounding situation can be various.
  • the current position and movement state may be such a surrounding situation.
  • the degree of movement of the user's body as a result of detecting the movement of the user may be the surrounding situation of the image information display apparatus 100.
  • the surrounding illuminance may be the surrounding situation of the image information display apparatus 100.
  • the controller 110 may detect whether a specific condition is satisfied according to the function.
  • the specific condition may be a specific situation (for example, a user's position movement or illuminance) around the image information display apparatus 100 corresponding to a specific function, or an importance (eg, determined according to a preset criterion). For example, the importance assessed from the event that occurred.
  • image information related to the executed function may be displayed on a specific display unit.
  • the controller 110 may display the image information display device 100 based on a state in which a current position is moved and whether the user is in a vehicle. It is possible to determine whether the vehicle moves in the state of boarding the vehicle, or the user walks or jumps.
  • the controller 110 may display image information related to the navigation function on the display unit corresponding to the user's superiority based on the determined result.
  • the controller 110 may display a brightness (illuminance) around the current image information display apparatus 100 when the currently executed function is a function of displaying a notification object to the user when there is an object approaching within a preset distance. Based on the location of the current user, the notification information may be displayed on the display unit corresponding to the superiority of the user.
  • FIG. 5 illustrates an operation process in which the image information display device according to an exemplary embodiment of the present invention detects a surrounding situation and displays image information accordingly.
  • a function currently executed is a navigation function
  • the navigation function is preset as a function for outputting information that the user must recognize by the user in advance.
  • the controller 110 may detect whether the user location is moving (S500). This is because, unlike the user simply searching for navigation information of a specific region, when the user's location moves, it may be determined that the user is actually moving toward a specific destination, and thus the navigation information should be provided more quickly and accurately. . Accordingly, when the navigation function is executed, the controller 110 determines the user's situation according to the detection result of the detection unit 120 and displays the image information related to the navigation function according to the determined result. Can be determined. For example, the controller 110 displays the display unit on at least one of the first display unit 132 or the second display unit 134 according to the determination result, or designates one display unit corresponding to the user's superiority.
  • Such a position movement may be detected through a location information module such as a GPS, or may be detected by a sensor provided in the image information display apparatus 100.
  • the controller 110 may determine that the user moves when the image received from the optical sensor, that is, the camera 221 changes more than a predetermined level within a predetermined time.
  • step S500 if the location of the user is not moved, the controller 110 may determine that the navigation information does not need to be displayed on the display unit corresponding to the user's superiority. Accordingly, when the position of the user is in the stopped state, the controller 110 may display image information related to the navigation function on at least one of the display units 132 and 134 (S508).
  • the controller 110 may display image information related to the navigation function on one of the display units 132 and 134 according to the user's selection of the display unit corresponding to the non-right eye and the display unit corresponding to the non-right eye. Can be. This is because the user does not need to be provided with navigation information more quickly and accurately as described above, so that it is displayed on the display unit desired by the user according to the user's selection.
  • the controller 110 may display image information related to the navigation function on the display unit corresponding to the user's superiority. Alternatively, the controller 110 may detect whether the user is moving through a vehicle such as a vehicle, even if the user is moved.
  • the controller 110 may determine whether the user is using a vehicle such as a vehicle based on the user's movement. To this end, when the user's location is moving, the controller 110 may detect whether there is a movement of a predetermined level or more from the user (S502). That is, when the user walks or runs directly, the control unit 110 controls the movement of the user based on a detection result of an optical sensor (for example, an internal camera), an inertial sensor, or a gravity sensor provided in the detection unit 120. It can be detected. Based on the detected result, it may be determined whether the user is actually in a state of moving and directly moving to a specific destination.
  • an optical sensor for example, an internal camera
  • an inertial sensor for example, an inertial sensor, or a gravity sensor provided in the detection unit 120. It can be detected. Based on the detected result, it may be determined whether the user is actually in a state of moving and directly moving to a specific destination.
  • the controller 110 may output the navigation information on the display unit corresponding to the user's superiority, so that the user may recognize the navigation information more quickly and accurately.
  • the navigation information may mean image information of a navigation function itself or a function of displaying a function related to the navigation function, that is, a function of displaying information about a feature around a user's location, for example. .
  • the controller 110 may determine that the user moves to a specific destination by using a vehicle such as a vehicle. In this case, the controller 110 may determine that the user uses public transportation such as a bus or subway, and thus may determine that the user does not need to receive navigation information more quickly and accurately. In this case, the controller 110 may proceed to step S508 to display the navigation information on at least one of the display units 132 and 134 according to a user's selection.
  • the controller 110 displays the image information related to the navigation function in the user's superiority using only one of the user's location movement detection result (step S500) or the user's motion detection result (step S502). Of course, it can also be displayed in wealth.
  • the image information related to the navigation function may be displayed on the display unit corresponding to the user's superiority.
  • the controller 110 may determine whether the user is in a preset vehicle. In this case, when it is determined that the user is in a vehicle preset by the user, for example, a vehicle that the user directly drives, the controller 110 may provide navigation information to the user even if the user's movement is less than a predetermined level. It may be displayed on the display unit corresponding to the superiority of.
  • FIG. 6 is an exemplary view illustrating an example in which image information is displayed in the image information display apparatus according to an exemplary embodiment of the present invention.
  • a function of displaying a content of a message received by a preset function and a navigation function are included, and a case in which the left eye of the user's eyes is the superior eye of the user will be described as an example. .
  • FIG. 6 illustrates a case where an event currently occurring in the image information display apparatus 100 according to an exemplary embodiment of the present invention or a function according to a user's selection is performed. It is an exemplary figure which shows the case where image information related to a function or an event is displayed.
  • the controller 110 may display image information related to the function selected by the user and the generated event on at least one of the display units 132 and 134.
  • FIG. 6A illustrates image information related to a function selected by a user
  • FIG. 6B illustrates image information related to an generated event.
  • the controller 110 of the image information display apparatus 100 may perform a function executed by a user's selection, that is, functions in which a navigation function is preset.
  • a user's selection that is, functions in which a navigation function is preset.
  • the surrounding situation can be further detected.
  • the controller 110 of FIG. 2 the image information 600 related to the navigation function may be displayed on the display unit 132 corresponding to the user's superiority, that is, the user's left eye.
  • control unit 110 is required to meet the specific conditions related to the function to display the image information related to the event in the uppermost of the user, that is, It may be displayed on the display unit 132 corresponding to the left eye.
  • the controller 110 may receive the received message even though the function of displaying the content of the received message is one of preset functions. The importance of the message can be evaluated based on the content of. Then, based on the evaluated importance, it may be determined whether to display the message on the display unit 132 corresponding to the user's superiority.
  • control unit 110 is a word of the text included in the received message, if the word set in advance of high importance, that is, words such as 'immediately', 'contact', 'urgent', 'important' This may not be displayed on the display unit 132 corresponding to the user's superiority, so that the content of the received message 610 corresponds to the right eye of the user, as shown in FIG.
  • the display unit 134 may be displayed.
  • FIG. 7 illustrates an example in which image information is displayed based on a result of sensing a user's state even when the same function is performed in the image information display apparatus according to an exemplary embodiment of the present invention.
  • a navigation function is included as a preset function, and a case in which the left eye of the user's eyes is the superior eye of the user will be described as an example.
  • the controller 110 of the image information display apparatus 100 may move the user's position and the user's movement ( For example, the image information related to the navigation information is displayed on the display unit 132 corresponding to the user's superiority based on the state of moving by foot.
  • the controller 110 may display image information related to the navigation function based on a result of detecting the user's movement in the display unit corresponding to the user's superiority ( 132 may determine whether to display. That is, the control unit 110 is a case where the navigation function is executed by the user, even if the position of the user is moving, as shown in (a) of FIG. 7, when the user boards the vehicle, the navigation is performed. Image information related to a function may be displayed on any one of the display units 132 and 134 according to a user's selection.
  • the image information related to the navigation function may be displayed on the display unit 134 corresponding to the user's non-comfort, that is, the right eye, as shown in FIG. 7B.
  • the controller 110 may determine that the user does not need to receive navigation information more quickly and accurately.
  • the controller 110 displays the image information related to the navigation function corresponding to the user's superior, that is, the left eye It may be displayed on the unit 132.
  • the controller 110 may be configured to drive the vehicle when the user is a vehicle in which the user is preset as a driver or when the user is seated in the driver's seat based on a camera inside the vehicle. It can be judged that.
  • the controller 110 cooperates with a control unit (not shown) of the vehicle to detect the position of the driver's seat of the vehicle, and the user may detect the driver's seat of the vehicle from the position of the main body and the position of the driver's seat of the image information display apparatus 100. It is possible to determine whether or not to board. Alternatively, the controller 110 may detect a user's movement from an image input at a predetermined time interval through a camera inside the vehicle, and determine whether the user is a driver of the vehicle based on the detected user's movement. If the user wearing the image information display apparatus 100 is a driver of a vehicle, the controller 110 displays image information related to the navigation function on the display unit 132 corresponding to the user's superior eye, that is, the left eye. You can also mark FIG. 7C illustrates an example in which the image information 700 related to the navigation function is displayed on the display unit 132 corresponding to the user's superiority, that is, the left eye in this case.
  • the navigation function and the event in which the message is received are mainly described as examples, but the present invention is not limited thereto. That is, the present invention can also be used to notify when there is an object close to the user.
  • the control unit 110 is a user when the ambient illumination is below a certain level (for example, late time) or when the user passes through a predetermined area (for example, an area where the user passes by walking or the like when returning home).
  • notification information for notifying the user may be displayed on the display unit corresponding to the user's superiority so that the user can recognize the object more quickly.
  • a specific function capable of displaying image information in the user's superiority is set as an example.
  • these functions may be added or excluded as much as the user selects.
  • the location movement state and the user's movement state as an example of the detected surrounding situation, but this is only the surrounding situation related to the navigation function, not all functions detect this. That is, various different surrounding situations can be detected according to the functions to be set, and accordingly, it can be determined whether image information related to the function should be displayed in the user's superiority.
  • the image information to be displayed on the display unit corresponding to the user's superiority is determined based on the function selected by the user or the function generated by the event. Of course, it may be determined according to the displayed content. That is, for example, if the multimedia content selected by the user is content that the user can immerse, such as a movie or a game (hereinafter referred to as immersive content), the controller 110 displays the immersive content in the display units 132 and 134. All or at least one may be indicated. However, if the content selected by the user is not immersive content such as schedule notification or local information (hereinafter, referred to as non-immersive content), the controller 110 may display it on a display unit corresponding to the user's superiority.
  • the multimedia content selected by the user is content that the user can immerse, such as a movie or a game (hereinafter referred to as immersive content)
  • the controller 110 displays the immersive content in the display units 132 and 134. All or at least one may be indicated.
  • the controller 110 may display
  • the immersive content or the non-immersive content may be preset by the user or may be preset when the image information display apparatus 100 according to the embodiment of the present invention is shipped.
  • multimedia content such as a movie or a game may be set as the immersive content
  • image information related to other contents except for the immersive content may be set as non-immersive content.
  • the controller 110 displays notification information related to the event in the display unit corresponding to the user's superiority when a preset event occurs. Can be marked on. For example, as described above, the controller 110 may display notification information for notifying when a message is received, when a call is received, or when an event such as a specific object approaches within a predetermined distance occurs.
  • the notification information may be displayed on a display unit corresponding to the superiority of the user, and a sound signal may be further output together with the notification information or before the notification information.
  • the preset event may be preset by the user, or may be preset from the time of shipment of the image information display apparatus 100 according to an exemplary embodiment of the present invention.
  • the control unit 110 determines the image information related to the function based on the result of the user's situation.
  • the display on the display unit corresponding to the superiority of the user has been described as an example.
  • the present invention is not limited thereto. That is, in addition to the above-described navigation function or a function related thereto, various other functions may be selected depending on the user's selection.
  • a message function or the like may be selected as the function.
  • the control unit 110 corresponds to the user's priority in the image information associated with the application for creating the received message or the content of the message, based on the result of determining the current user's situation at the time of receiving or sending the message.
  • it can also be displayed on the display unit.
  • the content 610 of the received message may be displayed on the display unit 132 corresponding to the user's superiority.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the controller 180 of the terminal.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to a glass-type image information display device capable of displaying image information, and a control method therefor, the device comprising: a main body comprising a plurality of glass display units respectively corresponding to both eyes of a user; a detection unit for detecting a peripheral situation of the main body; a memory including information on a prioritized eye and a non-prioritized eye of the user; and a control unit for displaying image information related to multimedia content and image information related to at least one of functions executable in the image information display device on at least one of the plurality of display units, wherein, if a preset function is executed, the control unit displays image information related to the function on a display unit corresponding to the prioritized eye of the user according to the detection result of the peripheral situation of the main body, and the preset function includes a navigation function and a function related to the navigation function.

Description

화상 정보 표시 장치 및 그 장치의 제어 방법Image information display device and control method thereof
본 발명은 화상 정보를 표시할 수 있는 글래스 타입의 화상 정보 표시 장치 및 그 장치의 제어 방법에 관한 것이다. The present invention relates to a glass type image information display apparatus capable of displaying image information and a method of controlling the apparatus.
정보화 시대가 급속히 발전함에 따라 화상 정보 표시 장치는 보다 새로운 형태로 계속 발전하고 있다. 예를 들어 기존에는 단지 TV나 모니터와 같이 고정된 장치에서 화상 정보를 표시하는 형태로 화상 정보 표시 장치가 이루어졌다면, 현재에는 사용자가 휴대할 수 있는 정도로 가볍고 소형화되어 이동 단말기나 노트북 등 다양한 형태로 발전되어 왔다. With the rapid development of the information age, image information display devices continue to develop in newer forms. For example, if the image information display device is conventionally displayed in a form of displaying information on a fixed device such as a TV or a monitor, it is now light and small enough to be carried by a user, and thus, in various forms such as a mobile terminal or a notebook. It has been developed.
뿐만 아니라 현재에는, 화상 정보 표시 장치는 보다 소형화되어 사용자가 시계나 안경처럼 착용가능한 웨어러블(Wearable) 형태로 발전하고 있다. 이에 따라 스마트 와치(Smart watch)등 다양한 장치가 등장하고 있는 추세이며, 이에 따라 화상 정보를 표시하는 기술 역시 나날이 발전하고 있다. In addition, at present, the image information display device has become smaller and has evolved into a wearable form that a user can wear like a watch or glasses. Accordingly, various devices such as smart watches are emerging, and accordingly, technology for displaying image information has been developed day by day.
한편 화상 정보를 표시할 수 있는 디스플레이 역시, 이러한 기술의 발달에 힘입어 새로운 형태로 발전되고 있다. 예를 들어 현재의 디스플레이는, 디스플레이 뒷면에 위치한 사물들이 비쳐 보일 수 있는 투명한 형태로 제작될 수 있으며, 이에 따라 마치 안경(Glass)과 같은 형태로 구현될 수 있다. 이러한 글래스 타입의 화상 정보 표시 장치는, 사용자의 선택에 따른 화상 정보를 표시할 수 있을 뿐만 아니라 사용자가 상기 디스플레이를 통해 외부의 환경을 육안으로 확인할 수도 있다.On the other hand, displays capable of displaying image information are also being developed in new forms thanks to the development of these technologies. For example, the current display may be manufactured in a transparent form through which objects located on the back of the display may be seen, and thus may be implemented in the form of glasses. Such a glass-type image information display device can not only display image information according to a user's selection, but also allow the user to visually check the external environment through the display.
한편 이러한 글래스 타입의 화상 정보 표시 장치는, 상술한 바와 같이 디스플레이를 통해 외부의 환경을 인식할 수 있으므로, 이를 이용한 보다 다양한 기능들을 제공할 수 있다. 이에 따라 현재 상기 글래스 타입의 화상 정보 표시 장치에서 보다 효과적으로 화상 정보를 표시할 수 있도록 하는 방법이 활발하게 연구 중인 실정이다. On the other hand, such a glass-type image information display device, as described above can recognize the external environment through the display, it can provide a variety of functions using the same. Accordingly, there is an active research into a method of displaying image information more effectively in the glass type image information display apparatus.
본 발명의 목적은 글래스 타입의 화상 정보 표시 장치에서 외부 환경에 근거하여 보다 효과적으로 화상 정보를 표시할 수 있도록 하는 화상 정보 표시 장치 및 그 장치의 제어 방법을 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION An object of the present invention is to provide an image information display apparatus and a method of controlling the apparatus that can display image information more effectively based on an external environment in a glass type image information display apparatus.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 화상 정보 표시 장치는, 전면부 및 후면부를 구비하고, 후면부측에 위치한 사물들이 비치도록 투명하게 형성되며 사용자의 양안에 각각 대응되는 복수의 글래스 디스플레이부를 포함하는 본체와, 상기 본체 주변 상황을 감지하는 감지부와, 사용자의 우위안과 비우위안에 대한 정보를 포함하는 메모리, 및, 상기 복수의 디스플레이부 중 적어도 하나에, 멀티미디어 컨텐츠와 관련된 화상 정보 및 상기 화상 정보 표시 장치에서 실행 가능한 기능들 중 적어도 하나에 관련된 화상 정보를 표시하는 제어부를 포함하며, 상기 제어부는, 기 설정된 기능이 실행되는 경우, 상기 본체 주변의 상황을 감지한 결과에 따라 현재 사용자의 상황을 판단하고, 사용자의 상황을 판단한 결과에 따라 상기 실행되는 기능에 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 한다.According to an aspect of the present invention to achieve the above or another object, the image information display device according to an embodiment of the present invention, the front portion and the rear portion, is formed to be transparent to reflect the objects located on the rear side and the user A main body including a plurality of glass display units respectively corresponding to both eyes, a sensing unit detecting a situation around the main body, a memory including information about the superior and non-eligible eyes of the user, and at least one of the plurality of display units. The controller may further include a controller configured to display image information related to multimedia content and image information related to at least one of functions executable on the image information display apparatus. Based on the results of detecting the situation of the current user to determine the situation of the user, Depending on the result of the determination to the image information related to the function in which the execution characterized in that displayed on the display unit corresponding to within the user's advantage.
일 실시 예에 있어서, 상기 제어부는, 상기 본체의 주변 상황을 감지한 결과에 근거하여 사용자의 위치가 이동되는 상태인지 여부를 판단하고, 판단 결과에 따라 상기 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하며, 상기 기 설정된 기능은, 네비게이션 기능 및 상기 네비게이션 기능과 관련된 기능임을 특징으로 한다. According to an embodiment, the controller may determine whether the user's position is moved based on a result of sensing the surrounding situation of the main body, and according to the determination result, the image information related to the function is stored in the user's superiority. The preset function is displayed on a corresponding display unit, wherein the preset function is a function related to the navigation function and the navigation function.
일 실시 예에 있어서, 상기 감지부는, 상기 본체 외부의 이미지를 수신하는 카메라를 포함하며, 상기 제어부는, 상기 카메라로부터 수신되는 이미지가 일정 시간 내에 변경되는 정도에 근거하여 상기 사용자의 상황을 판단하는 것을 특징으로 한다. In one embodiment, the sensing unit includes a camera that receives an image outside the main body, and the control unit is configured to determine the situation of the user based on a degree that an image received from the camera is changed within a predetermined time. It is characterized by.
일 실시 예에 있어서, 상기 감지부는, 사용자의 움직임을 감지하기 위한 적어도 하나의 센서를 더 포함하고, 상기 제어부는, 사용자의 위치가 이동되는 상태인 경우, 상기 감지부로부터 감지된 사용자의 움직임에 근거하여 상기 사용자의 상황을 판단하는 것을 특징으로 한다. In one embodiment, the sensing unit further comprises at least one sensor for detecting the movement of the user, the control unit, in the state where the user's position is moved, to the user's movement detected from the sensing unit It is characterized by determining the situation of the user based on.
일 실시 예에 있어서, 상기 제어부는, 상기 감지된 사용자의 움직임이 기 설정된 수준 미만인 경우, 사용자가 운송 수단을 이용하여 이동하고 있는 것으로 판단하고, 사용자가 상기 운송 수단의 운전자인지 여부에 근거하여 상기 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 한다. According to an embodiment of the present disclosure, if the detected movement of the user is less than a predetermined level, the controller determines that the user is moving by using a vehicle and based on whether the user is a driver of the vehicle. And displaying image information related to the function on a display unit corresponding to the user's superiority.
일 실시 예에 있어서, 상기 제어부는, 사용자가 탑승한 운송 수단이 기 설정된 차량인지 여부에 근거하여 사용자가 상기 운송 수단을 운전하는 운전자인지 여부를 판단하는 것을 특징으로 한다. According to an embodiment, the controller may determine whether the user is a driver driving the vehicle based on whether the vehicle in which the user rides is a preset vehicle.
일 실시 예에 있어서, 상기 제어부는, 상기 운송 수단의 전반적인 구동을 제어하는 운송 수단 제어부를 통해 상기 운송 수단의 운전석 위치를 감지하고, 상기 운전석의 위치와 상기 본체의 위치에 근거하여 사용자가 상기 운송 수단을 운전하는 운전자인지 여부를 판단하는 것을 특징으로 한다. In one embodiment, the control unit, through the vehicle control unit for controlling the overall driving of the vehicle means for detecting the position of the driver's seat of the vehicle, the user based on the position of the driver's seat and the position of the main body the transportation It is characterized by determining whether the driver is driving the means.
일 실시 예에 있어서, 상기 네비게이션 기능과 관련된 기능은, 사용자의 현재 위치 주변의 지형지물에 대한 정보를 표시하는 기능을 포함하는 것을 특징으로 한다. According to an embodiment of the present disclosure, the function related to the navigation function may include a function of displaying information about a feature around a user's current location.
일 실시 예에 있어서, 상기 기 설정된 기능은, 기 설정된 이벤트에 의해 실행되는 기능을 포함하며, 상기 기 설정된 이벤트는, 메시지의 수신 또는 호가 착신되는 경우에 발생하는 것을 특징으로 한다. According to an embodiment, the preset function may include a function executed by a preset event, wherein the preset event occurs when a message is received or a call is received.
일 실시 예에 있어서, 상기 제어부는, 상기 기 설정된 이벤트가 발생하는 경우, 상기 발생된 이벤트의 중요도를 평가하고 평가된 중요도에 근거하여, 상기 발생된 이벤트에 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시하는 것을 특징으로 한다. According to an embodiment of the present disclosure, when the preset event occurs, the controller evaluates the importance of the generated event and based on the evaluated importance, the image information related to the generated event corresponds to the superiority of the user. It is characterized by displaying on the display unit.
일 실시 예에 있어서, 상기 제어부는, 상기 기 설정된 이벤트가 메시지의 수신인 경우, 상기 메시지에 포함된 텍스트에 근거하여 상기 중요도를 평가하는 것을 특징으로 한다. According to an embodiment of the present disclosure, when the preset event is reception of a message, the controller may evaluate the importance based on text included in the message.
일 실시 예에 있어서, 상기 제어부는, 상기 메시지에 포함된 텍스트에, 미리 설정된 단어가 포함되어 있는지를 검색하고, 미리 설정된 단어가 적어도 하나 검색된 경우 각 단어에 서로 다르게 매칭된 중요도 점수를 합산한 결과에 근거하여 상기 메시지의 중요도를 평가하는 것을 특징으로 한다. According to an embodiment of the present disclosure, the control unit searches whether the text included in the message includes a preset word, and when the at least one preset word is searched for, adding the importance scores differently matched to each word. Based on the evaluation of the importance of the message.
일 실시 예에 있어서, 상기 제어부는, 상기 기 설정된 이벤트가 호의 착신인 경우, 상기 착신된 호의 전화번호에 근거하여 상기 중요도를 평가하는 것을 특징으로 한다. According to an embodiment of the present disclosure, when the preset event is a call, the controller may evaluate the importance based on the telephone number of the received call.
일 실시 예에 있어서, 상기 제어부는, 상기 실행되는 기능에 따라 각각 서로 다른 본체의 주변 상황을 감지하는 것을 특징으로 한다. According to an embodiment of the present disclosure, the controller may detect surrounding situations of different main bodies according to the executed function.
일 실시 예에 있어서, 상기 기 설정된 기능은, 일정 거리 이내로 사용자에게 접근한 물체의 감지되는 경우, 사용자에게 이를 알리기 위한 알림 정보를 표시하는 기능을 포함하며, 상기 제어부는, 상기 본체 주변의 환경을 감지한 결과, 상기 본체 주변의 조도가 기 설정된 수준 이하 및, 상기 본체가 위치한 지역 중 적어도 하나에 근거하여, 상기 물체의 접근을 알리기 위한 알림 정보를 상기 사용자의 우위안에 대응되는 디스플레이부 상에 표시하는 것을 특징으로 한다. In one embodiment, the preset function includes a function of displaying notification information for notifying the user when an object approaching the user is detected within a predetermined distance, and the controller controls the environment around the main body. As a result of the detection, based on the illuminance around the main body below a preset level and at least one of the regions where the main body is located, notification information for notifying the approach of the object is displayed on the display unit corresponding to the superiority of the user. Characterized in that.
일 실시 예에 있어서, 상기 제어부는, 상기 멀티미디어 컨텐츠의 종류를 구분하고, 상기 멀티미디어 컨텐츠의 종류에 따라 상기 멀티미디어 컨텐츠와 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 한다. According to an embodiment of the present disclosure, the controller may classify the type of the multimedia content and display image information related to the multimedia content in a display unit corresponding to the user's superiority according to the type of the multimedia content.
일 실시 예에 있어서, 상기 제어부는, 상기 멀티미디어 컨텐츠에 관련된 화상 정보를 상기 디스플레이부들 모두에 표시하는 상태에서, 기 설정된 이벤트가 발생하는 경우 상기 발생된 이벤트에 대한 알림 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 한다. According to an embodiment of the present disclosure, in a state in which image information related to the multimedia content is displayed on all of the display units, when a predetermined event occurs, the control unit corresponds to notification information of the generated event within a user's superiority. It is characterized by displaying on the display unit.
일 실시 예에 있어서, 상기 제어부는, 사용자 주변의 상황을 감지한 결과에 근거하여 상기 우위안에 대응되는 디스플레이부상에 표시되는 화상 정보의 위치를 결정하는 것을 특징으로 한다. The control unit may determine the position of the image information displayed on the display unit corresponding to the superiority, based on a result of detecting a situation around the user.
일 실시 예에 있어서, 상기 제어부는, 상기 우위안에 대응되는 디스플레이부에 비치는 사물들 중, 기 설정된 사물들이 식별가능하게 표시되는 디스플레이 영역을 제외한 다른 영역에 상기 화상 정보를 표시하는 것을 특징으로 한다.The control unit may display the image information in an area other than a display area in which preset objects are identifiably displayed among objects displayed on the display unit corresponding to the superiority.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 화상 정보 표시 장치의 제어 방법은, 기 설정된 기능의 실행 여부를 판단하는 단계와, 상기 기 설정된 기능이 실행된 경우, 상기 화상 정보 표시 장치 본체 주변의 상황을 감지하여 사용자의 상황을 판단하는 단계, 및, 상기 판단된 사용자의 상황에 근거하여, 상기 기 설정된 기능의 실행과 관련된 화상 정보를 상기 복수의 글래스 디스플레이부 중 사용자의 우위안에 대응되는 디스플레이부에 표시하는 단계를 포함하는 것을 특징으로 한다. According to an aspect of the present invention to achieve the above or another object, the control method of the image information display apparatus according to an embodiment of the present invention, the step of determining whether or not to execute a predetermined function, and the predetermined function is executed And determining a situation of a user by detecting a situation around the main body of the image information display device, and based on the determined situation of the user, image information related to the execution of the preset function is stored in the plurality of glasses. And displaying on a display unit corresponding to the superiority of the user among the display units.
본 발명에 따른 화상 정보 표시 장치 및 그 장치의 제어 방법의 효과에 대해 설명하면 다음과 같다.The effects of the image information display device and control method thereof according to the present invention will be described below.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 디스플레이부 상에 표시될 화상 정보가, 사용자가 보다 빨리 인식하여야 하는 것인지를 판단하고 그에 따라 특정 디스플레이부에 화상 정보가 출력되도록 함으로써, 사용자가 보다 빠르고 정확하게 화상 정보를 인식할 수 있도록 한다는 장점이 있다. According to at least one of the embodiments of the present invention, the present invention determines whether the image information to be displayed on the display unit should be recognized by the user sooner, so that the image information is output to the specific display unit, so that the user It is advantageous in that image information can be recognized more quickly and accurately.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 주변의 상황을 감지하고, 감지된 주변 상황에 근거하여 기 설정된 기능 또는 이벤트에 관련된 화상 정보를 특정 디스플레이에 출력되도록 함으로써, 사용자가 보다 빠르고 정확하게 화상 정보를 인식할 수 있도록 한다는 장점이 있다. In addition, according to at least one of the embodiments of the present invention, the present invention senses the surrounding situation, and based on the detected surrounding situation to output image information related to a predetermined function or event on a specific display, the user It is advantageous in that image information can be recognized quickly and accurately.
도 1은 본 발명의 실시 예에 따른 화상 정보 표시 장치의 블록 구성을 도시한 블록도이다. 1 is a block diagram showing a block configuration of an image information display apparatus according to an embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 화상 정보 표시 장치가 글래스 타입으로 구현된 예를 도시한 예시도이다. 2 is an exemplary diagram illustrating an example in which an image information display apparatus according to an exemplary embodiment of the present invention is implemented in a glass type.
도 3은 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 현재 수행되는 기능 및 감지된 주변 상황에 근거하여 화상 정보를 표시하는 동작 과정을 도시한 흐름도이다. 3 is a flowchart illustrating an operation of displaying image information based on a currently performed function and a sensed surrounding situation by an image information display apparatus according to an exemplary embodiment.
도 4는 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 발생된 이벤트의 중요도를 평가하고 그에 따라 화상 정보를 표시하는 동작 과정을 도시한 흐름도이다.4 is a flowchart illustrating an operation of evaluating the importance of an event generated and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
도 5는 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 주변 상황을 감지하고 그에 따라 화상 정보를 표시하는 동작 과정을 도시한 흐름도이다. 5 is a flowchart illustrating an operation process of detecting an ambient situation and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
도 6은 본 발명의 실시 예에 따른 화상 정보 표시 장치에서, 화상 정보가 표시되는 예를 보이고 있는 예시도이다. 6 is an exemplary view illustrating an example in which image information is displayed in the image information display apparatus according to an exemplary embodiment of the present invention.
도 7은 본 발명의 실시 예에 따른 화상 정보 표시 장치에서, 화상 정보가 표시되는 다른 예를 보이고 있는 예시도이다. 7 is an exemplary view showing another example in which image information is displayed in the image information display apparatus according to the embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same or similar reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other. In addition, in describing the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, the accompanying drawings are intended to facilitate understanding of the embodiments disclosed herein, but are not limited to the technical spirit disclosed herein by the accompanying drawings, all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.
본 명세서에서 설명되는 화상 정보 표시 장치에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 와치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display), 또는 스마트 렌즈(smart lens)) 등이 포함될 수 있다. The image information display device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player, a navigation, and a slate PC. PCs, tablet PCs, ultrabooks, wearable devices, such as smartwatches, glass glasses, head mounted displays, or smart A smart lens or the like.
도 1은 이러한 본 발명의 실시 예에 따른 화상 정보 표시 장치의 블록 구성을 도시한 블록도이다. 1 is a block diagram showing a block configuration of an image information display device according to an exemplary embodiment of the present invention.
도 1을 참조하여 살펴보면 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)는 디스플레이부(130), 감지부(120), 메모리(140)등을 포함할 수 있다. 그리고 도 1에 도시된 구성 요소들은 본 발명의 실시 예에 따른 화상 정보 표시 장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 화상 정보 표시 장치는 위에서 열거된 구성요소들 보다 많은 구성 요소들을 가질 수도 있다. 예를 들어 비록 도시되지는 않았으나 본 발명의 실시 예에 따른 화상 정보 표시 장치는 음향 출력부, 무선 통신부등을 더 구비할 수도 있음은 물론이다. 또는 이와 반대로 위에서 설명한 것보다 적은 구성요소들을 가질 수도 있음은 물론이다. Referring to FIG. 1, an image information display apparatus 100 according to an exemplary embodiment may include a display 130, a detector 120, a memory 140, and the like. In addition, the components shown in FIG. 1 are not essential in implementing an image information display apparatus according to an exemplary embodiment of the present invention, and thus, the image information display apparatus described in the present specification may have more components than those listed above. May have For example, although not shown, the image information display apparatus according to an embodiment of the present invention may further include a sound output unit, a wireless communication unit, and the like. Alternatively, on the contrary, it may have fewer components than described above.
보다 구체적으로, 상기 구성요소들 중 디스플레이부(130)는 화상 정보 표시 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(130)는 화상 정보 표시 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. More specifically, the display unit 130 among the components displays (outputs) information processed by the image information display apparatus 100. For example, the display unit 130 may display execution screen information of an application program driven by the image information display apparatus 100 or user interface (UI) and graphical user interface (GUI) information according to the execution screen information. Can be.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다. 상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. In addition, the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image. The stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
이러한 디스플레이부(130)는 복수개 구비될 수 있으며, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)가 글래스 타입으로 제작될 경우, 사용자의 양안에 각각 대응되는 제1 및 제2 디스플레이부(132, 134)를 포함하는 형태로 구현될 수 있다. 이러한 경우 디스플레이부(130)는 제어부(110)에 제어에 따라 상기 제1 및 제2 디스플레이부(132, 134)에 동일한 화상 정보를 표시하거나 또는 각각 서로 다른 화상 정보를 표시할 수도 있다. 또는 상기 제어부(110)의 제어에 따라 어느 하나에만 화상 정보가 표시되도록 할 수도 있다. The display 130 may be provided in plural. When the image information display apparatus 100 according to the exemplary embodiment of the present invention is manufactured in a glass type, the first and second display units corresponding to both eyes of the user may be provided. 132 and 134 may be implemented. In this case, the display 130 may display the same image information on the first and second display units 132 and 134 or display different image information, respectively, under the control of the controller 110. Alternatively, the image information may be displayed only in any one of the control unit 110.
감지부(120)는 화상 정보 표시 장치(100)를 둘러싼 주변 환경 정보 또는 사용자의 입력을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 감지부(120)는 위치 감지 센서를 포함할 수 있으며, 이러한 위치 감지 센서로 현재 화상 정보 표시 장치(100)의 위치를 감지할 수 있다. 이러한 위치 감지 센서의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 화상 정보 표시 장치(100)의 위치를 획득할 수 있다. 다른 예로서, 화상 정보 표시 장치(100)는 WIFI 모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 근거하여, 화상 정보 표시 장치(100)의 위치를 획득할 수 있다. 이러한 위치 정보 센서는 화상 정보 표시 장치(100)의 위치를 직접적으로 계산하거나 획득하는 구성 요소로 한정되는 것은 아니다.The sensor 120 may include at least one sensor for sensing the surrounding environment information surrounding the image information display apparatus 100 or a user's input. For example, the detector 120 may include a location sensor, and the location sensor may detect the location of the current image information display device 100. Representative examples of such position sensing sensors include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, when the mobile terminal utilizes the GPS module, the mobile terminal may acquire the location of the image information display apparatus 100 using a signal transmitted from a GPS satellite. As another example, the image information display apparatus 100 may obtain the position of the image information display apparatus 100 based on the information of the WIFI module and the wireless access point (AP) that transmits or receives the wireless signal. The location information sensor is not limited to a component that directly calculates or acquires the location of the image information display apparatus 100.
한편, 감지부(120)는 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 광 센서(optical sensor, 예를 들어, 카메라) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 화상 정보 표시 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 감지되는 정보들을 조합하여 활용할 수 있다.Meanwhile, the sensing unit 120 may include an acceleration sensor, a magnetic sensor, a gravity sensor, a gyroscope sensor, a motion sensor, a motion sensor, and an optical sensor. , For example, a camera). On the other hand, the image information display apparatus 100 disclosed in the present disclosure may utilize a combination of information detected by at least two or more of these sensors.
메모리(140)는 제어부(110)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(140)는 화상 정보 표시 장치(100)에서 출력되는 다양한 패턴의 음향에 관한 데이터를 저장할 수 있다. 또한 메모리(140)는 화상 정보 표시 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 화상 정보 표시 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 화상 정보 표시 장치(100)의 기본적인 기능(예를 들어, 동영상 또는 정지영상 등의 화상 정보가 출력되는 크기 및 해상도, 초점 거리등을 조절하는 기능 등)을 위하여 출고 당시부터 화상 정보 표시 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(140)에 저장되고, 화상 정보 표시 장치(100) 상에 설치되어, 제어부(110)에 의하여 상기 화상 정보 표시 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 140 may store a program for the operation of the controller 110, and may temporarily store input / output data (eg, a still image, a video, etc.). The memory 140 may store data relating to sound of various patterns output from the image information display apparatus 100. In addition, the memory 140 may store a plurality of application programs or applications that are driven by the image information display apparatus 100, data for operating the image information display apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these applications may be used for the basic functions of the image information display apparatus 100 (for example, a function of adjusting the size and resolution of the image information such as a moving image or a still image, a focal length, etc.) It may exist on the image information display device 100 from the time of shipment. On the other hand, the application program is stored in the memory 140, installed on the image information display apparatus 100, and driven to perform an operation (or function) of the image information display apparatus 100 by the controller 110. Can be.
메모리(140)는 플래시 메모리 타입(flash memory), 하드디스크 타입(hard disk), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 등과 같은 타입의 저장매체를 포함할 수 있다. 뿐만 아니라 영사 장치(100)는 인터넷(internet)상에서 상기 메모리(140)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 140 may include a storage medium of a type such as a flash memory type, a hard disk type, a card type memory (eg, SD or XD memory, etc.). In addition, the projection apparatus 100 may be operated in connection with a web storage that performs a storage function of the memory 140 on the Internet.
제어부(110)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 화면 정보 표시 장치(100)의 전반적인 동작을 제어한다. 제어부(110)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(140)에 저장된 응용 프로그램을 구동함으로써, 기 저장된 화상 정보를 디스플레이부들(132, 134) 중 적어도 하나에 표시하거나, 표시되는 화상 정보에 대해 사용자에게 적절한 기능을 제공할 수 있다.In addition to the operation related to the application program, the controller 110 typically controls the overall operation of the screen information display apparatus 100. The controller 110 processes at least one of the display units 132 and 134 by using the above-described components to process signals, data, information, and the like, which are input or output, or to drive an application program stored in the memory 140. It is possible to display a single function or to provide a function appropriate to a user with respect to displayed image information.
한편 제어부(110)는 상기 디스플레이부들(132, 134) 중 적어도 하나에 사용자가 선택한 기능에 대응되는 화상 정보를 표시할 수 있다. 제어부(110)는, 상기 사용자가 선택한 기능에 근거하여 상기 디스플레이부들(132, 134) 모두 또는 어느 하나의 디스플레이부에만 상기 선택한 기능에 대한 화상 정보가 표시되도록 할 수도 있다. The controller 110 may display image information corresponding to a function selected by a user on at least one of the display units 132 and 134. The controller 110 may display image information on the selected function only on all or one of the display units 132 and 134 based on the function selected by the user.
또는 제어부(110)는, 사용자로부터 선택된 기능의 종류에 따라 상기 화상 정보가 표시될 디스플레이부를 선택할 수도 있다. 즉, 사용자가 선택한 기능이 상기 디스플레이부들(132, 134) 모두에 표시되도록 미리 설정된 기능인 경우, 제어부(110)는 선택된 기능에 대한 화상 정보를 상기 디스플레이부들(132, 134) 모두에 출력되도록 할 수 있다. 예를 들어 제어부(110)는 사용자가 선택한 기능이 영화나 드라마와 같은 멀티미디어 컨텐츠를 재생하는 기능인 경우, 상기 멀티미디어 컨텐츠에 대한 화상 정보를 상기 디스플레이부들(132, 134) 모두에 출력할 수 있다. 그러나 만약 사용자가 선택한 기능이 이러한 멀티미디어 컨텐츠를 재생하는 기능이 아니라면, 제어부(110)는 현재 선택된 기능에 대응되는 화상 정보를 상기 디스플레이부들(132, 134) 중 어느 하나에만 표시되도록 할 수도 있다. Alternatively, the controller 110 may select a display unit to display the image information according to the type of the function selected by the user. That is, when a function selected by a user is a function that is preset to be displayed on both the display units 132 and 134, the controller 110 may output image information about the selected function to both the display units 132 and 134. have. For example, when the function selected by the user is a function of playing a multimedia content such as a movie or a drama, the controller 110 may output image information about the multimedia content to both the display units 132 and 134. However, if the function selected by the user is not a function of playing the multimedia content, the controller 110 may display image information corresponding to the currently selected function on only one of the display units 132 and 134.
여기서 상기 멀티미디어 컨텐츠는, 사용자에 의해 미리 설정될 수 있으며, 또는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)가 출고될 때에 미리 설정되어 있을 수도 있다. 예를 들어 영화나 게임등과 같이 사용자가 흥미를 위해 편안하게 즐길 수 있는 컨텐츠 등이 상기 멀티미디어 컨텐츠로 미리 설정될 수 있다. Here, the multimedia content may be preset by the user or may be preset when the image information display apparatus 100 according to the embodiment of the present invention is shipped. For example, content that a user can comfortably enjoy for interest, such as a movie or a game, may be preset as the multimedia content.
한편 제어부(110)는 디스플레이부들(132, 134)에서 표시될 화상 정보의 중요도를 평가하여, 상기 화상 정보를 상기 디스플레이부들(132, 134) 중 특정 디스플레이부에 표시되도록 할 수도 있다. 예를 들어 제어부(110)는 상기 디스플레이부들(132, 134)에서 표시될 화상 정보가 상기 멀티미디어 컨텐츠를 재생하는 기능이 아니라면, 상기 디스플레이부들(132, 134)에 표시될 화상 정보가 사용자가 반드시 확인을 하여야 하는 것인지 그렇지 않은 것인지를 판단하고 판단된 결과에 따라 선택된 기능과 관련된 화상 정보가 특정 디스플레이부에 표시되도록 할 수도 있다. The controller 110 may evaluate the importance of the image information to be displayed on the display units 132 and 134 so that the image information is displayed on a specific display unit among the display units 132 and 134. For example, if the image information to be displayed on the display units 132 and 134 is not a function of playing the multimedia content, the controller 110 confirms the image information to be displayed on the display units 132 and 134 by the user. It is also possible to determine whether or not to and to display the image information related to the selected function according to the determined result on the particular display unit.
이러한 경우 제어부(110)는, 상기 디스플레이부들(132, 134)에 표시될 화상 정보가 사용자가 반드시 확인을 하여야 하는 것인지를 판단하기 위한 기준으로 현재 선택된 기능 및 화상 정보 표시 장치(100)의 주변 상황을 감지한 결과를 이용할 수 있다. 즉 제어부(110)는 사용자 주변의 환경을 감지한 결과 사용자가 이동을 하고 있는 경우라고 판단되는 경우, 사용자의 현재 위치를 표시하기 위한 기능 또는 그와 관련된 기능을 사용자가 반드시 확인하여야 할, 반드시 사용자가 인식하여야할 정보라고 판단할 수 있다. 그리고 이러한 경우 제어부(110)는 상기 사용자가 반드시 인식하여야 하는 것으로 판단된 화상 정보의 경우 상기 디스플레이부들(132, 134) 중 특정 디스플레이부에 상기 화상 정보가 표시되도록 할 수도 있다.In this case, the controller 110 may determine whether the image information to be displayed on the display units 132 and 134 should be checked by the user, and the surrounding situation of the image information display apparatus 100 and the currently selected function. The result of detecting is available. That is, if it is determined that the user is moving as a result of sensing the environment around the user, the controller 110 must check the function for displaying the current location of the user or a function related thereto. Can be determined as information to be recognized. In this case, the controller 110 may allow the image information to be displayed on a specific display unit among the display units 132 and 134 in the case of the image information determined to be recognized by the user.
보다 바람직하게, 제어부(110)는 상기 사용자가 반드시 인식하여야 하는 것으로 판단된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시되도록 할 수도 있다. 이는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)가 글래스 형태인 경우 우위안에 대응되는 위치의 디스플레이부에서 화상 정보가 표시되는 경우에 사용자가 보다 빠르고 정확하게 이를 인식할 수 있기 때문이다. More preferably, the controller 110 may display the image information determined to be recognized by the user on a display unit corresponding to the user's superiority. This is because, when the image information display apparatus 100 according to the exemplary embodiment of the present invention has a glass shape, when the image information is displayed on the display unit at the position corresponding to the upper eye, the user may recognize the information more quickly and accurately.
여기서 ‘우위안’이라는 것은, 사용자의 양안 중 사용자가 의식적 또는 무의식적으로 다른 한쪽에 비해 보다 자주 사용하는 눈을 말하는 것이다. 이에 따라 우위안을 통해 인식되는 시각적 정보는, 비우위안을 통해 인식되는 시각적 정보보다 보다 빠르고 정확하게 인식될 수 있다. 이러한 우위안은 사람마다 각각 다를 수 있으며, 제어부(110)는 미리 설정된 방식에 따라 테스트된 결과를 입력받거나 또는 메모리(140)에 기 저장된 테스트 애플리케이션을 이용하여 사용자의 우위안을 검출한 결과를 이용할 수 있다. 그리고 검출된 우위안에 대한 정보는 상기 메모리(140)에 저장될 수 있으며, 제어부(110)의 요청이 있는 경우 제어부(110)에 제공될 수 있다. In this case, the term “right yuan” refers to the eyes of the user's binocular that they use more consciously or unconsciously than the other. Accordingly, the visual information recognized through the superior eye can be recognized faster and more accurately than the visual information recognized through the unbiased eye. Such superiority may be different for each person, and the controller 110 may receive a test result according to a preset method or use the result of detecting the superiority of the user using a test application stored in the memory 140. . The detected superiority information may be stored in the memory 140, and may be provided to the controller 110 when requested by the controller 110.
제어부(110)는 메모리(140)에 저장된 사용자의 우위안에 대한 정보를 이용하여 사용자의 우위안에 대응되는 디스플레이부를 선택할 수 있다. 이에 따라 제어부(110)는 기 사용자가 반드시 인식하여야 하는 것으로 판단된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. The controller 110 may select a display unit corresponding to the user's superiority using information on the user's superiority stored in the memory 140. Accordingly, the controller 110 may display the image information determined to be recognized by the user in a display unit corresponding to the user's superiority.
한편 제어부(110)는 사용자가 반드시 인식하여야 하는 화상 정보를 현재 화상 정보 표시 장치(100)에서 실행되는 기능에 근거하여 판단할 수 있다. 예를 들어 제어부(110)는 사용자의 선택 또는 사용자 주변의 환경을 감지한 결과에 근거하여 실행되는 기능이 미리 설정된 기능들 중 어느 하나인 경우, 그 기능과 관련된 화상 정보를 사용자가 반드시 인식하여야 하는 화상 정보로 판단할 수도 있다. 그리고 제어부(110)는 상기 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. The controller 110 may determine image information that the user must recognize based on a function that is currently executed in the image information display apparatus 100. For example, if a function to be executed based on a user's selection or a result of sensing an environment around the user is one of preset functions, the controller 110 must recognize the image information related to the function. It can also determine with image information. The controller 110 may display the image information on the display unit corresponding to the user's superiority.
여기서 미리 설정된 기능들은, 예를 들어 사용자가 반드시 인식하여야 되는 정보들을 출력하는 기능이라고 미리 설정된 기능일 수 있다. 예를 들어 이러한 기능들은 사용자의 현재 위치에 대한 정보 또는 현재 위치에 관련된 다른 정보를 제공하는 기능(예를 들어 네비게이션 기능이나, 사용자 위치 주변의 지형 지물등에 대한 정보를 표시하는 등의 네비게이션 관련 기능)등이 될 수 있다. 또는 사용자에게 일정 거리 이상 접근하는 물체 등을 인식하고 이를 사용자에게 알리기 위한 기능 등이 될 수도 있다. 이러한 기능들은 사용자에 의해 미리 선택된 것들일 수 있으며, 또는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)가 출고시부터 미리 설정된 것일 수도 있다. The preset functions may be, for example, a function that outputs information that a user must recognize. For example, these features provide information about the user's current location or other information related to the current location (e.g. navigation-related features such as displaying navigation or features around the user's location). And so on. Alternatively, the present invention may be a function for recognizing an object approaching a certain distance or the like and informing the user of the object. These functions may be previously selected by the user, or may be preset in advance from the factory when the image information display apparatus 100 according to an exemplary embodiment of the present invention is provided.
한편, 제어부(110)는 현재 실행되는 기능이, 비록 기 설정된 기능 중 하나인 경우라도, 사용자의 주변 환경을 감지한 결과에 근거하여 상기 화상 정보를 특정 디스플레이부(사용자의 우위안에 대응되는 디스플레이부)에 표시되도록 할 수도 있음은 물론이다. 예를 들어 사용자의 선택에 따라 네비게이션 기능이 수행되는 경우, 사용자의 주변을 감지한 결과 사용자의 움직임이 거의 없는 상태에서 사용자의 위치가 이동하는 경우라면, 제어부(110)는 사용자가 차량등의 운송 수단을 이용하여 이동하는 것으로 판단할 수 있다. 이러한 경우 제어부(110)는 비록 네비게이션 기능이 상기 기 설정된 기능에 포함된 기능이라고 할지라도, 상기 네비게이션 기능에 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부상에 표시하지 않을 수도 있다. 또한 제어부(110)는 기 설정된 거리 이내에 사용자에게 접근하는 물체가 있음을 알리기 위한 기능의 경우, 사용자의 주변 환경을 감지한 결과 조도가 일정 수준 이하인 경우(즉 사용자가 조도가 일정 수준 이하인 어두운 지역에 있는 경우)에만 상기 알림 정보를 사용자의 우위안에 대응되는 디스플레이부상에 표시할 수도 있다.Meanwhile, even if the function to be executed is one of the preset functions, the controller 110 may display the image information based on a result of detecting the user's surrounding environment (the display unit corresponding to the user's edge). Of course, you can make it appear). For example, when the navigation function is performed according to the user's selection, if the user's location moves while there is little user's movement as a result of sensing the user's surroundings, the control unit 110 controls that the user transports the vehicle. It can be determined to move by means. In this case, although the navigation function is a function included in the preset function, the controller 110 may not display image information related to the navigation function on the display unit corresponding to the user's superiority. In addition, in the case of a function for notifying that there is an object approaching the user within a predetermined distance, the controller 110 detects the surrounding environment of the user, and when the illuminance is lower than a predetermined level (that is, in a dark area where the illuminance is lower than a predetermined level). The notification information may be displayed on the display unit corresponding to the user's edge.
한편 비록 도시되지는 않았으나 음향 출력부는 상기 제어부(110)의 제어에 따라 현재 디스플레이부들(132, 134)에 표시되는 화상 정보와 관련된 오디오 데이터를 출력할 수 있다. 이러한 음향 출력부는 연결 가능한 음향 출력 기기, 예를 들어 이어폰(earphone)등과 같은 기기와 연결될 수 있는 연결 포트를 포함할 수 있으며, 상기 연결 포트를 통해 전송된 음향 데이터가, 상기 제어부(110)의 제어에 따른 볼륨 크기로 상기 연결된 음향 출력 기기를 통해 출력되도록 할 수 있다. Although not shown, the sound output unit may output audio data related to image information currently displayed on the display units 132 and 134 under the control of the controller 110. The sound output unit may include a connection port that may be connected to a connectable sound output device, for example, an earphone or the like, and the sound data transmitted through the connection port may be controlled by the controller 110. Volume may be output through the connected sound output device according to.
또한 비록 도시되지는 않았으나 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)는 외부의 다른 기기 또는 기 설정된 외부 서버와 통신 기능를 수행할 수 있는 통신 모듈을 더 포함할 수 있다. 예를 들어 통신 모듈은 블루투스, WIFI(Wireless-Fidelity), 적외선 통신, NFC(Near Field Communication) 등과 같은 통신 모듈을 이용하여 화상 정보 표시 장치(100)와 무선 통신 시스템 사이, 화상 정보 표시 장치(100)와 다른 이동 단말기 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.In addition, although not shown, the image information display apparatus 100 according to an exemplary embodiment of the present invention may further include a communication module capable of performing a communication function with another external device or a preset external server. For example, the communication module uses the communication module such as Bluetooth, WIFI (Wireless-Fidelity), infrared communication, near field communication (NFC), and the like to communicate the image information display device 100 with the wireless communication system. ) And other mobile terminals. The short range wireless communication network may be short range wireless personal area networks.
여기에서, 다른 이동 단말기는 본 발명에 따른 화상 정보 표시 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트 워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. Here, the other mobile terminal is a wearable device capable of exchanging (or interworking) data with the image information display apparatus 100 according to the present invention, for example, a smartwatch, a smart glasses ( smart glass, head mounted display (HMD).
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 화상 정보 표시 장치(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 화상 정보 표시 장치(100)의 동작, 제어, 또는 제어 방법은 상기 메모리(140)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 구현될 수 있다. 또한 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the image information display apparatus 100 according to various embodiments described below. In addition, the operation, control, or control method of the image information display apparatus 100 may be implemented by driving at least one application program stored in the memory 140. In addition, the following various embodiments may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
도 2는 본 발명의 실시 예에 따른 화상 정보 표시 장치가 글래스 타입으로 구현된 예를 도시한 예시도이다. 2 is an exemplary diagram illustrating an example in which an image information display apparatus according to an exemplary embodiment of the present invention is implemented in a glass type.
본 발명의 실시 예에 따른 화상 정보 제공 장치(200)는 도 2에서 보이고 있는 것처럼 안경(Glass) 형태로 제작되어, 인체의 두부에 착용 가능하도록 구성될 수 있다. 그리고 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 또한 프레임부(201)는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. The image information providing apparatus 200 according to an exemplary embodiment of the present invention may be manufactured in the form of glasses as shown in FIG. 2 and may be configured to be worn on the head of a human body. And it may be provided with a frame portion (case, housing, etc.) for this. In addition, the frame portion 201 may be formed of a flexible material to facilitate wearing.
프레임부(201)는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(280), 음향 출력 모듈(252) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부(201)에는 좌안 및 우안에 각각 대응되는 위치에 배치되는 복수의 디스플레이부(251a, 251b)를 구비할 수 있다. 또한 상기 디스플레이부들(251a, 251b)은 광 투과성을 가지며, 화상 정보를 출력할 수 있다. The frame part 201 is supported by the head and provides a space in which various components are mounted. As illustrated, electronic components such as the control module 280, the sound output module 252, and the like may be mounted in the frame unit. In addition, the frame unit 201 may include a plurality of display units 251a and 251b disposed at positions corresponding to the left eye and the right eye, respectively. In addition, the display units 251a and 251b have light transmittance and may output image information.
상기 화상 정보는 글래스 타입의 화상 정보 제공 장치(200)에서 생성하거나 또는 외부 기기로부터 입력받은 가상의 그래픽 객체를 의미한다. 예를 들면, 상기 가상의 객체는 애플리케이션이나 이에 대응하는 아이콘, 콘텐츠, 통화모드의 UI 등을 의미할 수 있다. 이는 제어부(110)에 의해 생성되거나 스마트 폰과 같은 안경형 단말기로부터 입력받을 수 있다. 이때, 디스플레이부들(251a, 251b)은 광 투과성을 갖기 때문에, 사용자는 상기 디스플레이부들(251a, 251b)을 통하여 외부 환경을 볼 수 있다.The image information refers to a virtual graphic object generated by the glass type image information providing apparatus 200 or received from an external device. For example, the virtual object may mean an application, an icon corresponding to the icon, content, or a UI in a call mode. This may be generated by the controller 110 or received from an eyeglass terminal such as a smart phone. In this case, since the display units 251a and 251b have light transmittance, the user may see the external environment through the display units 251a and 251b.
일 실시 예로, 디스플레이부들(251a, 251b)은 외부 환경이 보이는 동시에 상기 외부 환경을 구성하는 임의의 외부 물체에 대한 정보가 출력될 수 있다. 예를 들어, 외부 물체는 명함, 사람 또는 상호 통신이 가능한 외부기기 또는 특정 지역의 랜드 마크(land mark)가 되는 건물이나 건축물 등일 수도 있다. According to an embodiment, the display units 251a and 251b may display an external environment and output information on any external object constituting the external environment. For example, the external object may be a business card, a person or an external device that can communicate with each other, or a building or a building that becomes a landmark of a specific region.
제어 모듈(280)은 글래스 타입의 화상 정보 제공 장치(200)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어 모듈(280)은 앞서 설명한 제어부(110)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어 모듈(280)이 두부 상의 프레임부(201)에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(280)의 위치는 이에 한정되지 않는다.The control module 280 is configured to control various electronic components included in the glass type image information providing apparatus 200. The control module 280 may be understood as a configuration corresponding to the controller 110 described above. In this figure, the control module 280 is illustrated to be installed in the frame portion 201 on the head. However, the position of the control module 280 is not limited thereto.
디스플레이부들(251a, 251b)은 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 이에 따라 사용자가 글래스 타입의 화상 정보 제공 장치(200)를 착용하였을 때, 상기 디스플레이부들(251a, 251b) 중 적어도 하나를 통해 사용자의 눈 앞에 직접 영상을 제공할 수 있다.The display units 251a and 251b may be implemented in the form of a head mounted display (HMD). The HMD type is a display method mounted on the head and showing an image directly in front of the user's eyes. Accordingly, when the user wears the glass type image information providing apparatus 200, an image may be directly provided in front of the user's eyes through at least one of the display units 251a and 251b.
한편 상기 디스플레이부들(251a, 251b)은 프리즘을 이용하여 사용자의 눈으로 이미지를 투사할 수도 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 상기 프리즘은 투광성으로 형성될 수 있다.Meanwhile, the display units 251a and 251b may project an image to the eyes of a user using a prism. In addition, the prism can be formed translucent so that the user can see the projected image and the general field of view (the range the user looks through the eye) together.
이처럼, 디스플레이부들(251a, 251b)을 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 글래스 타입의 화상 정보 제공 장치(200)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다. As such, the image output through the display units 251a and 251b may be viewed by overlapping with the general field of view. The glass-type image information providing apparatus 200 may provide an augmented reality (AR) that displays a virtual image by superimposing a virtual image on a real image or a background using the characteristics of the display.
카메라(221)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(221)가 눈에 인접하여 위치하므로, 카메라(221)는 사용자가 바라보는 장면을 영상으로 획득할 수 있다. 카메라(221)는 상기 프레임부(201)에 설치될 수 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.The camera 221 is disposed adjacent to at least one of the left eye and the right eye, and is formed to capture an image of the front. Since the camera 221 is located adjacent to the eye, the camera 221 may acquire a scene viewed by the user as an image. The camera 221 may be installed in the frame unit 201, and may be provided in plural to acquire a stereoscopic image.
글래스 타입의 화상 정보 제공 장치(200)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(223)를 구비할 수 있다. 사용자 입력부(223)는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. The glass type image information providing apparatus 200 may include a user input unit 223 manipulated to receive a control command. The user input unit 223 may be adopted in any manner as long as it is a tactile manner in which the user operates while having a tactile feeling such as touch or push.
또한, 글래스 타입의 화상 정보 제공 장치(200)에는 사운드를 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰(미도시) 및 음향을 출력하는 음향 출력 모듈(252)이 구비될 수 있다. 음향 출력 모듈(252)은 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력 모듈(252)이 골전도 방식으로 구현되는 경우, 사용자가 글래스 타입의 화상 정보 제공 장치(200)를 착용시, 음향 출력 모듈(252)은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다. 또한 글래스 타입의 화상 정보 제공 장치(200)는 상기 마이크로폰을 통해 사용자의 음성 신호를 입력받고 이를 분석하여, 상기 사용자의 음성 신호에 따른 기능이 수행되도록 할 수도 있다. In addition, the glass type image information providing apparatus 200 may include a microphone (not shown) that receives sound and processes the sound into electrical voice data, and a sound output module 252 that outputs sound. The sound output module 252 may be configured to transmit sound in a general sound output method or a bone conduction method. When the sound output module 252 is implemented in a bone conduction manner, when the user wears the glass type image information providing apparatus 200, the sound output module 252 is in close contact with the head and vibrates the skull to transmit sound. Done. In addition, the glass-type image information providing apparatus 200 may receive a voice signal of the user through the microphone and analyze the same, thereby performing a function according to the voice signal of the user.
이하의 설명에서는, 편의상 본 발명의 실시 예에 따른 화상 정보 제공 장치(200)가 상술한 바와 같이 글래스 타입, 즉, 안경 형태를 가지는 것으로 가정하기로 한다. 그리고 이하에서는 이와 같이 구성된 화상 정보 표시 장치에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. In the following description, for convenience, it is assumed that the image information providing apparatus 200 according to the embodiment of the present invention has a glass type, that is, a form of glasses as described above. Hereinafter, embodiments related to a control method that can be implemented in the image information display device configured as described above will be described with reference to the accompanying drawings. It is apparent to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention.
도 3은 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 현재 수행되는 기능 및 감지된 주변 상황에 근거하여 화상 정보를 표시하는 동작 과정을 도시한 흐름도이다. 3 is a flowchart illustrating an operation of displaying image information based on a currently performed function and a sensed surrounding situation by an image information display apparatus according to an exemplary embodiment.
도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)는 사용자가 선택한 기능에 따른 화상 정보를 디스플레이부들(132, 134) 중 적어도 하나에 표시할 수 있다(S300). 예를 들어 사용자가 영화나 게임 등의 멀티미디어 컨텐츠를 선택하는 경우, 제어부(110)는 S300 단계에서 사용자가 선택한 멀티미디어 컨텐츠에 관련된 화상 정보를 디스플레이부들(132, 134) 중 적어도 하나에 표시할 수 있다. Referring to FIG. 3, the controller 110 of the image information display apparatus 100 according to an exemplary embodiment may display image information according to a function selected by a user on at least one of the display units 132 and 134. There is (S300). For example, when the user selects a multimedia content such as a movie or a game, the controller 110 may display image information related to the multimedia content selected by the user on at least one of the display units 132 and 134 in operation S300. .
한편 제어부(110)는 화상 정보 표시 장치(100)에서 미리 설정된 기능들 중 어느 하나의 기능이 실행되었는지 여부를 감지할 수 있다(S302). 예를 들어 제어부(110)는 S302 단계에서, 사용자가 현재 화상 정보 표시 장치(100)에서 수행되는 기능과 다른 기능을 실행시키는 경우, 또는 특정 이벤트(event)(예를 들어 메시지의 수신이나 기 설정된 주변 환경의 변화가 발생된 경우 등)의 발생시에 상기 이벤트의 발생에 대응되는 기능이 실행되면 이를 감지할 수 있다. Meanwhile, the controller 110 may detect whether any one of the preset functions is executed in the image information display apparatus 100 (S302). For example, when the user executes a function different from the function currently performed on the current image information display apparatus 100 in step S302, or a specific event (for example, receiving or presetting a message) When a change in the surrounding environment occurs, a function corresponding to the occurrence of the event may be detected.
그리고 제어부(110)는 상기S302 단계에서, 상기 실행된 기능이, 사용자가 반드시 인식하여야 하는 화상 정보를 표시하는 기능으로 미리 설정된 기능들 중 어느 하나인지 여부를 판단할 수 있다. 그리고 상기 S302 단계의 판단 결과에 근거하여 상기 실행된 기능에 관련된 화상 정보를 상기 디스플레이부들(132, 134) 중 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수 있다(S304). In operation S302, the controller 110 may determine whether the executed function is one of preset functions as a function of displaying image information that the user must recognize. Based on the determination result of step S302, image information related to the executed function may be displayed on the display unit corresponding to the user's superiority among the display units 132 and 134 (S304).
한편 S304 단계에서, 제어부(110)는 사용자 주변의 상황을 감지한 결과에 근거하여 상기 우위안에 대응되는 디스플레이부상에 표시되는 화상 정보의 위치를 결정할 수도 있다. 즉, 상기 제어부(110)는, 상기 우위안에 대응되는 디스플레이부에 비치는 사물들 중, 기 설정된 사물들이 식별가능하게 표시되는 디스플레이 영역을 제외한 다른 영역에 상기 화상 정보가 표시되도록 할 수도 있다. 여기서 상기 기 설정된 사물은 사용자의 선택 또는 미리 설정된 바에 따라 다양하게 결정될 수 있다. 예를 들어 상기 기 설정된 사물은, 상기 우위안에 대응되는 디스플레이부를 통해 비치는 사물들 중, 신호등 또는 표지판 등의 사물일 수 있다. On the other hand, in step S304, the controller 110 may determine the position of the image information displayed on the display unit corresponding to the dominant position based on the result of detecting the situation around the user. That is, the controller 110 may allow the image information to be displayed in an area other than a display area in which preset objects are identifiably displayed among the objects reflected in the display unit corresponding to the superiority. The preset thing may be variously determined according to a user's selection or a predetermined bar. For example, the preset object may be an object, such as a traffic light or a sign, among objects reflected through the display unit corresponding to the superiority.
예를 들어 제어부(110)는 감지부(120)를 통해 감지되는 결과를 이용하여 이러한 사물들을 인식할 수 있다. 일 예로 감지부(120)는 카메라를 통해 입력되는 이미지로부터 신호등 또는 표지판에 대응되는 사물을 인식할 수 있다. 여기서 제어부(110)는 상기 카메라를 통해 입력되는 이미지로부터 글자 등이 표시된 사물이 있는 경우, 이를 표지판 등으로 인식할 수 있다. 또한 제어부(110)는 보행자 표시나 정지 표시 등과 같은 특정 심볼(symbol)이 표시되는 사물이 있는 경우, 또는 빨강색, 파란색 또는 노란색이 일렬로 배열된 사물이 감지되는 경우 이를 신호등으로 인식할 수도 있다. For example, the controller 110 may recognize these objects by using the result detected by the detector 120. For example, the detector 120 may recognize an object corresponding to a traffic light or a sign from an image input through a camera. Herein, when there is an object on which letters and the like are displayed from the image input through the camera, the controller 110 may recognize this as a sign or the like. In addition, the controller 110 may recognize when there is an object displaying a specific symbol such as a pedestrian display or a stop display, or when an object in which red, blue, or yellow is arranged in a line is detected as a traffic light. .
이러한 상태에서, 제어부(110)는 상기 신호등 또는 표지판에 대응되는 사물들이, 상기 우위안에 대응되는 디스플레이부 상에 표시되는 위치를 알 수 있다. 이러한 경우, 제어부(110)는 상기 우위안에 대응되는 디스플레이부 상에서, 신호등 또는 표지판 등과 같은 사물들이 표시되는 위치를 제외한 다른 영역에 상기 화상 정보를 표시할 수 있다. 이에 따라 본 발명에서는, 표시되는 화상 정보에 의해 사용자가 표지판이나 신호등 등 중요한 정보를 확인하지 못하게 되는 상황을 미연에 방지할 수도 있다. In this state, the controller 110 may know a position where objects corresponding to the traffic light or sign are displayed on the display unit corresponding to the upper edge. In this case, the controller 110 may display the image information in another area except for a location where objects such as a traffic light or a sign are displayed on the display unit corresponding to the upper eye. Accordingly, in the present invention, it is possible to prevent a situation in which the user cannot confirm important information such as a sign or a traffic light by the displayed image information.
한편 상술한 설명에서는 제어부(110)가 인식하는 사물의 예로 신호등 또는 표지판 만을 예로 들어 설명하였으나, 이는 본 발명의 실시 예일 뿐 이와는 다른 사물들도 얼마든지 다양한 방법으로 인식할 수도 있음은 물론이다. 예를 들어 제어부(110)는 사물의 형태 인식을 위한 데이터베이스를 이용하여 감지부(120)의 감지 결과 감지되는 다양한 사물들을 인식할 수도 있음은 물론이다. 그리고 상기 사물들이, 사용자에 의해 미리 설정되거나, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 출고시 또는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)을 제조한 제조사등으로부터 화상 정보가 표시될 수 있는 영역에서 제외되는 영역으로 미리 설정된 경우, 제어부(110)는 상기 사물들이 표시되는 영역을 제외한 다른 영역에 화상 정보가 출력되도록 할 수 있다. Meanwhile, in the above description, only the traffic light or the sign is described as an example of the object that the control unit 110 recognizes. However, this is only an embodiment of the present invention and may be recognized in various ways. For example, the controller 110 may recognize various objects detected as a result of the detection of the sensor 120 using a database for recognizing a shape of the object. The objects may be preset by a user, or may be obtained from the manufacturer of the image information display apparatus 100 according to an exemplary embodiment of the present disclosure or from a manufacturer who manufactures the image information display apparatus 100 according to an exemplary embodiment of the present disclosure. In the case where the image information is previously set as an area excluded from the area where the image information can be displayed, the controller 110 may cause the image information to be output to an area other than the area where the objects are displayed.
한편 상술한 설명에서는 단지 화상 정보를 상기 미리 설정된 사물들이 표시되는 영역을 제외한 다른 영역에서 표시되는 것을 예로 들었으나, 이 뿐만 아니라 표시되는 화상 정보의 크기를 조절할 수도 있음은 물론이다. 즉, 제어부(110)는 상기 사물들이 표시되는 영역에 의해 상기 화상 정보가 표시될 수 있는 영역이 부족한 경우, 상기 화상 정보가 표시되는 영역의 크기를 조절하여 좀더 작은 크기의 화상 정보를 표시할 수도 있음은 물론이다.Meanwhile, in the above description, only image information is displayed in an area other than the area in which the preset objects are displayed. However, the size of the displayed image information may be adjusted. That is, the controller 110 may display the image information of a smaller size by adjusting the size of the region where the image information is displayed if the region where the image information is displayed is insufficient by the region where the objects are displayed. Of course.
한편 상기 S304 단계에서 제어부(110)는 현재 발생된 이벤트에 근거하여, 상기 실행되는 기능 또는 발생된 이벤트에 관련된 화상 정보의 중요도를 기 설정된 기준에 따라 평가하고 평가된 결과에 따라 관련된 화상 정보가 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수도 있다. 이처럼 제어부(110)가 현재 발생된 이벤트에 관련된 화상 정보의 중요도를 평가하는 동작 과정을 하기 도 4를 참조하여 보다 자세하게 살펴보기로 한다. On the other hand, in step S304, the control unit 110 evaluates the importance of the image information related to the executed function or the generated event based on a preset criterion based on the currently generated event, and the related image information is based on the evaluated result. It may be displayed on the display unit corresponding to the superiority of. As described above, the operation of the controller 110 evaluating the importance of the image information related to the currently generated event will be described in detail with reference to FIG. 4.
한편 상기 S304 단계에서는, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)가, 비록 기 설정된 기능들 중 어느 하나의 기능이 실행되는 경우일지라도, 화상 정보 표시 장치(100) 주변의 상황에 근거하여 사용자의 상황을 판단하고, 사용자의 상황을 판단한 결과에 따라 상기 화상 정보가 특정 디스플레이부 상에 표시되도록 할 수도 있다. 이러한 경우 제어부(110)는, 예를 들어 S304 단계에서, 주변의 상황을 더 감지하고, 감지된 주변 상황에 근거하여 사용자가 이동 중인지 또는 정지 상태인지 사용자의 상태를 판단할 수 있다. 그리고 만약 사용자가 이동 중인 경우에는 사용자가 차량 등의 운송 수단을 통해 이동 중인지, 아니면 사용자가 뛰거나 걸어서 이동하는 상태인지 여부를 판단할 수 있다. 그리고 사용자의 상황을 판단한 결과에 따라 사용자의 우위안에 대응되는 디스플레이부 상에 현재 실행되는 기능에 관련된 화상 정보가 표시되도록 할 수도 있다. 이하 이처럼 주변 상황을 감지하여 화상 정보를 특정 디스플레이부 상에 표시하는 동작 과정을 하기 도 5를 참조하여 보다 자세하게 살펴보기로 한다. On the other hand, in step S304, even if the control unit 110 of the image information display device 100 according to an embodiment of the present invention, even if any one of the preset functions are executed, the image information display device 100 The user's situation may be determined based on the surrounding situation, and the image information may be displayed on a specific display unit according to a result of the user's situation being determined. In this case, for example, in step S304, the controller 110 may further detect a surrounding situation and determine a state of the user whether the user is moving or stopped based on the detected surrounding situation. If the user is moving, the user may determine whether the user is moving through a vehicle such as a vehicle or whether the user is running or walking. According to the result of determining the user's situation, image information related to a function currently executed may be displayed on the display unit corresponding to the user's superiority. Hereinafter, an operation process of detecting the surrounding situation and displaying image information on a specific display unit will be described in more detail with reference to FIG. 5.
한편 도 4는 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 발생된 이벤트의 중요도를 평가하고 그에 따라 화상 정보를 표시하는 동작 과정을 도시한 것이다.4 is a flowchart illustrating an operation of evaluating the importance of an event generated and displaying image information according to the image information display apparatus according to an exemplary embodiment of the present invention.
상술한 바에 따르면, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)는 상기 S302 단계에서 기 설정된 기능들 중 어느 하나의 기능들 중 어느 하나가 실행되는 경우 뿐만 아니라, 특정 이벤트가 발생하는 경우 상기 발생된 이벤트에 근거하여 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수 있다고 설명한 바 있다. 도 4는 이러한 경우에 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)가 발생된 이벤트의 중요도를 평가하는 동작 과정을 도시한 것이다. As described above, the control unit 110 of the image information display apparatus 100 according to an embodiment of the present invention not only performs any one of the functions preset in step S302, When an event occurs, it has been described that image information can be displayed on a display unit corresponding to the user's superiority based on the generated event. 4 illustrates an operation process of evaluating the importance of an event generated by the controller 110 of the image information display apparatus 100 according to an exemplary embodiment of the present disclosure.
도 4를 참조하여 살펴보면, 제어부(110)는 이벤트가 발생되는 경우 이를 감지할 수 있다(S400). 예를 들어 상기 S400 단계에서 감지되는 이벤트는 다양한 것이 있을 수 있다. 즉, 호(call)의 착신이나, 또는 SMS(Short Messaging Service), SNS(Social Network Service)등에 관련된 메시지의 수신, 또는 기 설정된 시각이 되었거나, 특정 위치에 도달하였음을 알리는 알람 정보의 발생, 및 배터리의 부족이나 기 설정된 일정(schedule)을 알리기 위한 알림 정보의 발생 등이 이러한 이벤트가 될 수 있다. Referring to FIG. 4, when an event occurs, the controller 110 may detect this (S400). For example, the event detected at step S400 may be various. That is, the reception of a call or the reception of a message related to a short messaging service (SMS), a social network service (SNS), or the like, or generation of alarm information indicating that a predetermined time has been reached or a specific location has been reached, and Such an event may include a low battery or generation of notification information for notifying a predetermined schedule.
제어부(110)는 상기 S400 단계에서 이러한 이벤트의 발생을 감지할 수 있다. 그리고 제어부(110)는 현재 발생된 이벤트에 의해 실행되는 기능이 기 설정된 기능인지 여부를 판단할 수 있다(S402). 예를 들어 제어부(110)는 호 착신 또는 메시지 수신과 같은 이벤트가 발생하는 경우, 통화 기능 또는 SMS나 SNS 기능 등이 상기 발생된 이벤트에 대응되는 기능이라고 판단할 수 있다. 그리고 제어부(110)는 상기 발생된 이벤트에 대응되는 기능이, 기 설정된 기능인지 여부를 판단할 수 있다. 그리고 제어부(110)는 상기 S402 단계의 판단 결과, 상기 기능이 미리 설정된 기능이 아닌 경우라면, 상기 이벤트에 관련된 화상 정보를 상기 디스플레이부들(132, 134) 중 적어도 하나에 표시할 수 있다(S410). The controller 110 may detect the occurrence of such an event in step S400. In addition, the controller 110 may determine whether a function executed by a currently generated event is a preset function (S402). For example, when an event such as a call incoming or a message is received, the controller 110 may determine that a call function or an SMS or SNS function corresponds to the generated event. The controller 110 may determine whether a function corresponding to the generated event is a preset function. If the function is not a preset function, the controller 110 may display image information related to the event on at least one of the display units 132 and 134 (S410). .
한편, 상기 S402 단계의 판단 결과, 현재 발생된 이벤트에 의해 실행되는 기능이 미리 설정된 기능들에 해당되는 경우, 제어부(110)는 상기 도 3의 S304 단계로 진행하여, 현재 발생된 이벤트에 관련된 화상 정보를 상기 디스플레이부들(132, 134) 중 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. On the other hand, if it is determined in step S402 that the function executed by the currently generated event corresponds to the preset functions, the control unit 110 proceeds to step S304 of FIG. 3 and the image related to the currently generated event. The information may be displayed on the display unit corresponding to the superiority of the user among the display units 132 and 134.
여기서 제어부(110)는, 현재 발생된 이벤트의 중요도를 더 평가하고, 평가된 중요도가 기 설정된 수준 이상인 경우에 한해, 상기 이벤트에 관련된 화상 정보가 특정 디스플레이부(사용자의 우위안에 대응되는 디스플레이부)에 표시되도록 할 수도 있다(S406). 이러한 기준은 이벤트의 종류마다 각기 다르게 설정될 수 있다. 예를 들어 현재 발생된 이벤트가 호의 착신인 경우, 상기 착신된 호의 전화번호 정보가 상기 이벤트의 중요도를 평가하는 기준이 될 수 있으며, 또는 상기 이벤트가 메시지의 수신인 경우 상기 메시지에 포함된 내용이 상기 이벤트의 중요도를 평가하는 기준이 될 수 있다. 그리고 상기 S406 단계의 중요도 평가 결과, 평가된 중요도가 기 설정된 수준 이상인 경우라면, 상기 도 3의 S304 단계로 진행하여 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. Herein, the controller 110 further evaluates the importance of the currently occurring event, and only when the evaluated importance is equal to or greater than a preset level, the image information related to the event is displayed in a specific display unit (the display unit corresponding to the user's superiority). It may be displayed on (S406). These criteria may be set differently for each type of event. For example, when an event currently occurring is a call reception, the telephone number information of the incoming call may be a criterion for evaluating the importance of the event, or when the event is a reception of a message, the content included in the message is Can be a criterion for evaluating the importance of an event. As a result of the importance evaluation in step S406, if the evaluated importance is more than a predetermined level, the process may proceed to step S304 of FIG. 3 and display on the display unit corresponding to the user's superiority.
즉, 제어부(110)는, 미리 지정된 전화번호(예를 들어 미리 저장되어 있는 전화번호)인 경우에 착신된 호의 중요도를 기 설정된 수준 이상으로 높게 평가할 수 있다. 이러한 경우 제어부(110)는, S304 단계에서 전화번호가 미리 저장된 호에 한해, 착신된 호와 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. That is, the controller 110 may evaluate the importance of the incoming call higher than the preset level in the case of a predetermined telephone number (for example, a telephone number stored in advance). In this case, the controller 110 may display the image information related to the incoming call only on the display unit corresponding to the user's superiority only in the call stored in advance at the step S304.
또는 제어부(110)는 메시지가 수신되는 경우, 수신된 메시지의 내용 중 미리 설정된 단어가 포함되어 있는지 여부에 따라 수신된 메시지의 중요도를 평가할 수 있다. 즉, 예를 들어 메시지에 ‘중요’, ‘긴급’, ‘꼭’, ‘바로 연락’등의 단어가 포함되어 있는 경우, 제어부(110)는 그 메시지를 중요도가 높은 메시지로 판단할 수 있으며, 이를 S304 단계에서 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. 여기서 상기 메시지의 중요도를 평가하기 위한 단어는 사용자가 미리 설정할 수 있음은 물론이며, 각각의 단어별로 서로 다른 중요도 점수가 매칭되도록 설정될 수도 있다. 이러한 경우 제어부(110)는, 상기 S406 단계에서, 상기 메시지에 포함된 단어들 중 미리 설정된 단어들을 검색 및, 검색된 단어들에 각각 대응되는 중요도 점수를 합산하고, 합산된 점수에 근거하여 상기 메시지의 중요도가 기 설정된 수준 이상인지 여부를 판단할 수도 있다. 그리고 평가된 중요도가 기 설정된 수준 이상인 경우 제어부(110)는 도 3의 S304 단계로 진행하여 상기 수신된 메시지의 내용을 표시하는 화상 정보를 상기 디스플레이부들(132, 134) 중 사용자의 우위안에 대응되는 디스플레이부에 표시할 수 있다. Alternatively, when the message is received, the controller 110 may evaluate the importance of the received message according to whether a preset word is included in the content of the received message. That is, for example, when a message includes words such as 'important', 'urgent', 'must', 'immediately contacted', the controller 110 may determine the message as a message of high importance, This may be displayed on the display unit corresponding to the superiority of the user in step S304. Here, the words for evaluating the importance of the message may be set by the user in advance, and may be set to match different importance scores for each word. In this case, in step S406, the controller 110 searches for preset words among the words included in the message, adds importance scores corresponding to the retrieved words, and based on the summed score, It may be determined whether the importance level is above a predetermined level. When the evaluated importance is equal to or greater than a preset level, the controller 110 proceeds to step S304 of FIG. 3 and corresponds to the user's superiority among the display units 132 and 134 for image information indicating the content of the received message. It can be displayed on the display unit.
한편 상술한 설명에 따르면, 상기 S304 단계에서는, 화상 정보 표시 장치(100)의 주변 상황을 감지한 결과를 더 고려하여 사용자의 상태를 판단하고, 현재 실행된 기능 또는 이벤트에 관련된 화상 정보를 특정 디스플레이부에 표시할 수도 있음을 언급한 바 있다. 이러한 주변 상황은 다양한 것이 될 수 있다. 예를 들어 현재의 위치 및 이동 상태 등이 이러한 주변 상황이 될 수 있다. 또는 사용자의 움직임을 감지한 결과 사용자가 신체를 움직이는 정도 등이 이러한 화상 정보 표시 장치(100)의 주변 상황이 될 수도 있다. 또한 주변의 조도등이 이러한 화상 정보 표시 장치(100)의 주변 상황이 될 수도 있다. Meanwhile, according to the above-described description, in step S304, the user's state is determined by further considering the result of sensing the surrounding situation of the image information display apparatus 100, and specific image information related to the currently executed function or event is displayed. It was mentioned that it may be indicated in the wealth. This surrounding situation can be various. For example, the current position and movement state may be such a surrounding situation. Alternatively, the degree of movement of the user's body as a result of detecting the movement of the user may be the surrounding situation of the image information display apparatus 100. In addition, the surrounding illuminance may be the surrounding situation of the image information display apparatus 100.
뿐만 아니라, 제어부(110)는 사용자의 선택 또는 현재 발생된 이벤트에 의해 실행되는 기능이 기 설정된 기능들 중 어느 하나인 경우, 상기 기능에 따라 특정한 조건이 충족되는지 여부를 감지할 수 있다. 여기서 상기 특정한 조건이라는 것은, 특정 기능에 대응되는 화상 정보 표시 장치(100) 주변의 특정한 상황(예를 들어 사용자의 위치 이동 또는 조도)일 수 있으며, 또는 기 설정된 기준에 따라 판단되는 중요도(예를 들어 발생된 이벤트로부터 평가되는 중요도)일 수 있다. In addition, when the function executed by the user's selection or the currently generated event is one of preset functions, the controller 110 may detect whether a specific condition is satisfied according to the function. Here, the specific condition may be a specific situation (for example, a user's position movement or illuminance) around the image information display apparatus 100 corresponding to a specific function, or an importance (eg, determined according to a preset criterion). For example, the importance assessed from the event that occurred.
그리고 감지된 결과에 근거하여 상기 실행되는 기능과 관련된 화상 정보가 특정 디스플레이부 상에 표시되도록 할 수도 있다. 예를 들어 제어부(110)는 현재 실행되는 기능이 네비게이션 기능인 경우라면, 화상 정보 표시 장치(100)는 현재의 위치가 이동되는 상태 및, 사용자가 운송 수단에 탑승한 상태인지 여부 등에 근거하여, 사용자가 운송 수단에 탑승한 상태에서 이동하는지, 아니면 사용자가 걷거나 뛰어서 이동하는지를 판단할 수 있다. 그리고 제어부(110)는 판단된 결과에 근거하여 상기 네비게이션 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수 있다. 또는 제어부(110)는 현재 실행되는 기능이, 기 설정된 거리 내로 접근한 물체가 있는 경우 이를 사용자에게 알림 정보의 형태로 표시하는 기능이라면, 현재 화상 정보 표시 장치(100) 주변의 밝기(조도) 또는 현재 사용자의 위치에 근거하여 상기 알림 정보가 사용자의 우위안에 대응되는 디스플레이부 상에 표시되도록 할 수도 있다. Based on the detected result, image information related to the executed function may be displayed on a specific display unit. For example, if the function to be executed is a navigation function, the controller 110 may display the image information display device 100 based on a state in which a current position is moved and whether the user is in a vehicle. It is possible to determine whether the vehicle moves in the state of boarding the vehicle, or the user walks or jumps. The controller 110 may display image information related to the navigation function on the display unit corresponding to the user's superiority based on the determined result. Alternatively, the controller 110 may display a brightness (illuminance) around the current image information display apparatus 100 when the currently executed function is a function of displaying a notification object to the user when there is an object approaching within a preset distance. Based on the location of the current user, the notification information may be displayed on the display unit corresponding to the superiority of the user.
도 5는 이러한 경우에 본 발명의 실시 예에 따른 화상 정보 표시 장치가, 주변의 상황을 감지하고 그에 따라 화상 정보를 표시하는 동작 과정을 도시한 것이다. 이하의 설명에서는, 설명의 편의상 현재 실행되는 기능이 네비게이션 기능이며, 네비게이션 기능은 미리 사용자에 의해 사용자가 반드시 인식하여야 하는 정보를 출력하는 기능으로 미리 설정된 것을 가정하기로 한다. FIG. 5 illustrates an operation process in which the image information display device according to an exemplary embodiment of the present invention detects a surrounding situation and displays image information accordingly. In the following description, for convenience of explanation, it is assumed that a function currently executed is a navigation function, and the navigation function is preset as a function for outputting information that the user must recognize by the user in advance.
이처럼 네비게이션 기능이 실행되는 경우 제어부(110)는 사용자 위치가 이동 중인지 여부를 감지할 수 있다(S500). 이는 단순히 사용자가 특정 지역의 네비게이션 정보를 검색하는 것과 달리, 사용자의 위치가 이동하는 경우에는, 사용자가 특정 목적지를 향해 실제로 이동하는 것으로 판단될 수 있이므로 네비게이션 정보를 보다 빠르고 정확하게 제공받아야 하기 때문이다. 이에 따라 제어부(110)는 네비게이션 기능이 실행되는 경우, 감지부(120)의 감지 결과에 따라 사용자의 상황을 판단하고 판단된 결과에 따라 상기 네비게이션 기능에 관련된 화상 정보를 표시할 디스플레이부(130)를 결정할 수 있다. 예를 들어 제어부(110)는 상기 판단 결과에 따라 제1 디스플레이부(132) 또는 제2 디스플레이부(134) 중 적어도 하나에 표시하거나, 또는 사용자의 우위안에 대응되는 어느 하나의 디스플레이부를 지정하여 지정된 디스플레이부 상에 상기 네비게이션 기능에 관련된 화상 정보를 표시할 수도 있다. 이러한 위치 이동은, GPS 등의 위치 정보 모듈 등을 통해 감지될 수 있으며, 또는 화상 정보 표시 장치(100)에 구비된 센서 등에 의하여 감지될 수도 있다. 예를 들어 제어부(110)는 광 센서, 즉 카메라(221)로부터 수신되는 영상이 일정 시간 내에 기 설정된 수준 이상 변경되는 경우, 사용자가 이동을 하는 것으로 판단할 수 있다. As such, when the navigation function is executed, the controller 110 may detect whether the user location is moving (S500). This is because, unlike the user simply searching for navigation information of a specific region, when the user's location moves, it may be determined that the user is actually moving toward a specific destination, and thus the navigation information should be provided more quickly and accurately. . Accordingly, when the navigation function is executed, the controller 110 determines the user's situation according to the detection result of the detection unit 120 and displays the image information related to the navigation function according to the determined result. Can be determined. For example, the controller 110 displays the display unit on at least one of the first display unit 132 or the second display unit 134 according to the determination result, or designates one display unit corresponding to the user's superiority. It is also possible to display image information related to the navigation function on the display unit. Such a position movement may be detected through a location information module such as a GPS, or may be detected by a sensor provided in the image information display apparatus 100. For example, the controller 110 may determine that the user moves when the image received from the optical sensor, that is, the camera 221 changes more than a predetermined level within a predetermined time.
상기 S500 단계의 감지 결과, 사용자의 위치가 이동하는 경우가 아니라면, 제어부(110)는 네비게이션 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시할 필요가 없다고 판단할 수 있다. 이에 따라 제어부(110)는 사용자의 위치가 정지 상태에 있는 경우 상기 네비게이션 기능과 관련된 화상 정보를 디스플레이부들(132, 134) 중 적어도 하나에 표시할 수 있다(S508).As a result of the sensing of step S500, if the location of the user is not moved, the controller 110 may determine that the navigation information does not need to be displayed on the display unit corresponding to the user's superiority. Accordingly, when the position of the user is in the stopped state, the controller 110 may display image information related to the navigation function on at least one of the display units 132 and 134 (S508).
따라서 제어부(110)는 상기 네비게이션 기능과 관련된 화상 정보를, 상기 디스플레이부들(132, 134) 중 우위안에 대응되는 디스플레이부 뿐만 아니라 비우위안에 대응되는 디스플레이부 중 사용자의 선택에 따른 어느 하나에 표시할 수 있다. 이는 상술한 바와 같이 사용자가 보다 빠르고 정확하게 네비게이션 정보를 제공받을 필요가 없으므로, 사용자의 선택에 따라 사용자가 원하는 디스플레이부 상에 표시하도록 한 것이다. Accordingly, the controller 110 may display image information related to the navigation function on one of the display units 132 and 134 according to the user's selection of the display unit corresponding to the non-right eye and the display unit corresponding to the non-right eye. Can be. This is because the user does not need to be provided with navigation information more quickly and accurately as described above, so that it is displayed on the display unit desired by the user according to the user's selection.
반면, 상기 S500 단계의 감지 결과, 사용자의 위치가 이동 중인 상태라면, 제어부(110)는 상기 네비게이션 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수 있다. 또는 제어부(110)는 사용자가 비록 위치가 이동되는 경우라고 할지라도, 사용자가 차량과 같은 운송 수단을 통해 이동하고 있는지를 감지할 수도 있다. On the other hand, if the location of the user is moving as a result of the detection of step S500, the controller 110 may display image information related to the navigation function on the display unit corresponding to the user's superiority. Alternatively, the controller 110 may detect whether the user is moving through a vehicle such as a vehicle, even if the user is moved.
제어부(110)는 사용자가 차량과 같은 운송 수단을 이용하고 있는지 여부를 사용자의 움직임에 근거하여 판단할 수 있다. 이를 위해 제어부(110)는 사용자의 위치가 이동 중인 경우, 사용자로부터 기 설정된 수준 이상의 움직임이 있는지 여부를 감지할 수 있다(S502). 즉, 사용자가 직접 걷거나 뛰는 경우, 제어부(110)는 감지부(120)에 구비된 광 센서(예를 들어 내부 카메라)나, 관성 센서, 중력 센서등의 감지 결과에 근거하여 이러한 사용자의 움직임을 감지할 수 있다. 그리고 감지된 결과에 근거하여, 사용자가 실제로 움직이고 있는 상태이며, 직접 특정 목적지를 향해 이동하고 있는 상태인지 여부를 판단할 수 있다. The controller 110 may determine whether the user is using a vehicle such as a vehicle based on the user's movement. To this end, when the user's location is moving, the controller 110 may detect whether there is a movement of a predetermined level or more from the user (S502). That is, when the user walks or runs directly, the control unit 110 controls the movement of the user based on a detection result of an optical sensor (for example, an internal camera), an inertial sensor, or a gravity sensor provided in the detection unit 120. It can be detected. Based on the detected result, it may be determined whether the user is actually in a state of moving and directly moving to a specific destination.
이러한 경우 제어부(110)는, 네비게이션 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 출력하여, 사용자가 보다 빠르고 정확하게 상기 네비게이션 정보를 인식하도록 할 수도 있다. 여기서 상기 네비게이션 정보라 함은, 네비게이션 기능 자체에 대한 화상 정보 또는 상기 네비게이션 기능과 관련된 기능, 즉 예를 들어 사용자 위치 주변의 지형 지물 등에 대한 정보를 표시하는 기능에 대한 화상 정보를 의미하는 것일 수 있다. In this case, the controller 110 may output the navigation information on the display unit corresponding to the user's superiority, so that the user may recognize the navigation information more quickly and accurately. Here, the navigation information may mean image information of a navigation function itself or a function of displaying a function related to the navigation function, that is, a function of displaying information about a feature around a user's location, for example. .
그러나 만약 상기 사용자의 움직임 감지 결과, 사용자의 움직임이 기 설정된 수준 미만인 경우에는, 제어부(110)는 사용자가 차량 등의 운송 수단을 이용하여 특정 목적지로 이동하는 것으로 판단할 수도 있다. 이러한 경우 제어부(110)는 사용자가 버스나 지하철 등의 대중교통을 이용하는 것으로 판단할 수 있으며, 이에 따라 사용자가 보다 빠르고 정확하게 네비게이션 정보를 제공받을 필요가 없다고 판단할 수도 있다. 이러한 경우 제어부(110)는 S508 단계로 진행하여 상기 디스플레이부들(132, 134) 중 사용자의 선택에 따른 적어도 하나에 상기 네비게이션 정보를 표시할 수 있다.However, if, as a result of the user's motion detection, the user's movement is less than a predetermined level, the controller 110 may determine that the user moves to a specific destination by using a vehicle such as a vehicle. In this case, the controller 110 may determine that the user uses public transportation such as a bus or subway, and thus may determine that the user does not need to receive navigation information more quickly and accurately. In this case, the controller 110 may proceed to step S508 to display the navigation information on at least one of the display units 132 and 134 according to a user's selection.
이상의 설명은 상기 네비게이션 기능이 실행되는 경우에 화상 정보 표시 장치(100)의 현재 위치 및 이동 상태, 그리고 사용자의 움직임 등이 상기 네비게이션 기능에 대응되는 주변 상황으로 미리 설정된 경우를 가정한 것이다. 그러나 이는 본 발명의 설명을 돕기 위한 예일 뿐, 본 발명이 이에 한정되는 것이 아님은 물론이며, 얼마든지 다양한 다른 주변 상황을 더 감지하거나 덜 감지할 수도 있음은 물론이다. 즉 예를 들어 제어부(110)는 사용자의 위치 이동 감지 결과(S500 단계) 또는 사용자의 움직임 감지 결과(S502 단계) 중 어느 하나만을 이용하여 상기 네비게이션 기능과 관련된 화상 정보가 사용자의 우위안에 대응되는 디스플레이부에 표시되도록 할 수도 있음은 물론이다. In the above description, it is assumed that the current position and movement state of the image information display apparatus 100 and the user's movement when the navigation function is executed are previously set as surrounding conditions corresponding to the navigation function. However, this is only an example to help explain the present invention, and the present invention is not limited thereto, and of course, various other surroundings may be detected more or less. That is, for example, the controller 110 displays the image information related to the navigation function in the user's superiority using only one of the user's location movement detection result (step S500) or the user's motion detection result (step S502). Of course, it can also be displayed in wealth.
또한 이상의 설명에서 언급되지 않은 다른 주변 상황을 감지한 결과에 근거하여, 상기 네비게이션 기능과 관련된 화상 정보가 사용자의 우위안에 대응되는 디스플레이부 상에 표시되도록 할 수도 있음은 물론이다. 즉, 제어부(110)는 사용자의 움직임을 감지하는 것 대신, 사용자가 기 설정된 차량에 탑승하였는지 여부를 판단할 수 있다. 이러한 경우 제어부(110)는 사용자가 미리 설정한 차량, 예를 들어 사용자가 직접 운전하는 차량에 사용자가 탑승한 것으로 판단되는 경우, 비록 사용자의 움직임이 기 설정된 수준 미만인 경우라고 할지라도 네비게이션 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수도 있다. In addition, based on a result of sensing other surrounding conditions not mentioned in the above description, the image information related to the navigation function may be displayed on the display unit corresponding to the user's superiority. In other words, instead of detecting the user's movement, the controller 110 may determine whether the user is in a preset vehicle. In this case, when it is determined that the user is in a vehicle preset by the user, for example, a vehicle that the user directly drives, the controller 110 may provide navigation information to the user even if the user's movement is less than a predetermined level. It may be displayed on the display unit corresponding to the superiority of.
한편 이상의 설명에서는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 동작 과정을 흐름도를 참조하여 자세히 살펴보았다. In the above description, the operation of the image information display apparatus 100 according to an exemplary embodiment of the present invention has been described in detail with reference to a flowchart.
이하의 설명에서는, 사용자의 위치 이동 상태 및 사용자의 움직임에 근거하여 이러한 네비게이션 정보를 디스플레이부들(132, 134) 중 어느 하나에 표시하는 예를 예시도를 참조하여 살펴보기로 한다. In the following description, an example of displaying such navigation information on one of the display units 132 and 134 based on the position movement state of the user and the movement of the user will be described with reference to the exemplary view.
도 6은 본 발명의 실시 예에 따른 화상 정보 표시 장치에서, 화상 정보가 표시되는 예를 보이고 있는 예시도이다. 이하의 설명에서는, 미리 설정된 기능으로 수신된 메시지의 내용을 표시하는 기능 및, 네비게이션 기능이 포함되는 경우를 가정하고, 사용자의 양안 중 왼쪽 눈이 사용자의 우위안인 경우를 예로 들어 설명하기로 한다. 6 is an exemplary view illustrating an example in which image information is displayed in the image information display apparatus according to an exemplary embodiment of the present invention. In the following description, it is assumed that a function of displaying a content of a message received by a preset function and a navigation function are included, and a case in which the left eye of the user's eyes is the superior eye of the user will be described as an example. .
도 6을 참조하여 살펴보면, 도 6은 사용자가 도보로 이동하는 경우에 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)에서 현재 발생한 이벤트 또는 사용자의 선택에 따른 기능이 수행되는 경우에, 그 기능 또는 이벤트에 관련된 화상 정보가 표시되는 경우를 보이고 있는 예시도이다. Referring to FIG. 6, when the user moves on foot, FIG. 6 illustrates a case where an event currently occurring in the image information display apparatus 100 according to an exemplary embodiment of the present invention or a function according to a user's selection is performed. It is an exemplary figure which shows the case where image information related to a function or an event is displayed.
이러한 경우 제어부(110)는 사용자가 선택한 기능 및 발생된 이벤트에 관련된 화상 정보를 상기 디스플레이부들(132, 134) 중 적어도 하나에 표시할 수 있다. 도 6의 (a)는 사용자가 선택한 기능에 관련된 화상 정보를, 그리고 도 6의 (b)는 발생된 이벤트에 관련된 화상 정보가 표시되는 예를 보이고 있는 것이다. In this case, the controller 110 may display image information related to the function selected by the user and the generated event on at least one of the display units 132 and 134. FIG. 6A illustrates image information related to a function selected by a user, and FIG. 6B illustrates image information related to an generated event.
우선 도 6의 (a)를 참조하여 살펴보면, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)는, 사용자의 선택에 의해 실행되는 기능, 즉 네비게이션 기능이 기 설정된 기능들 중 하나인 경우, 주변의 상황을 더 감지할 수 있다. 그리고 주변의 상황을 감지한 결과, 사용자의 위치가 이동하고 있는 상태이며, 또한 사용자로부터 일정 수준 이상의 움직임이 감지되는 경우(사용자가 도보로 이동 중이므로), 제어부(110)는 도 6의 (a)에서 보이고 있는 것처럼, 네비게이션 기능과 관련된 화상 정보(600)를 사용자의 우위안, 즉 사용자의 왼쪽 눈에 대응되는 디스플레이부(132)에 표시할 수 있다.First, referring to FIG. 6A, the controller 110 of the image information display apparatus 100 according to an exemplary embodiment of the present invention may perform a function executed by a user's selection, that is, functions in which a navigation function is preset. In case of, the surrounding situation can be further detected. As a result of detecting the surrounding situation, when the position of the user is moving and when a movement of a certain level or more is detected from the user (because the user is moving on foot), the controller 110 of FIG. As shown in FIG. 2, the image information 600 related to the navigation function may be displayed on the display unit 132 corresponding to the user's superiority, that is, the user's left eye.
한편, 비록 현재 발생된 이벤트에 관련된 기능이, 미리 설정된 기능 중 하나인 경우라도, 제어부(110)는 상기 기능과 관련된 특정 조건이 충족되어야 상기 이벤트에 관련된 화상 정보를 사용자의 우위안, 즉 사용자의 왼쪽 눈에 대응되는 디스플레이부(132)에 표시할 수 있다. On the other hand, even if the function related to the currently generated event is one of the preset functions, the control unit 110 is required to meet the specific conditions related to the function to display the image information related to the event in the uppermost of the user, that is, It may be displayed on the display unit 132 corresponding to the left eye.
제어부(110)는 도 6의 (b)에서 보이고 있는 것과 같이 메시지가 수신되는 이벤트가 발생하는 경우, 비록 수신된 메시지의 내용을 표시하는 기능이 미리 설정된 기능들 중 하나라고 할지라도, 수신된 메시지의 내용에 근거하여 상기 메시지의 중요도를 평가할 수 있다. 그리고 평가된 중요도에 근거하여 상기 메시지를 사용자의 우위안에 대응되는 디스플레이부(132)에 표시할지 여부를 결정할 수 있다. When an event in which a message is received occurs as shown in FIG. 6B, the controller 110 may receive the received message even though the function of displaying the content of the received message is one of preset functions. The importance of the message can be evaluated based on the content of. Then, based on the evaluated importance, it may be determined whether to display the message on the display unit 132 corresponding to the user's superiority.
즉, 제어부(110)는 수신된 메시지에 포함된 텍스트의 단어들 중, 중요도가 높은 것으로 미리 설정된 단어, 즉 ‘즉시’, ‘연락 바람’, ‘긴급’, ‘중요’ 등의 단어가 없는 경우 이를 사용자의 우위안에 대응되는 디스플레이부(132)에 표시하지 않을 수 있으며, 이에 따라 도 6의 (b)에서 보이고 있는 것과 같이 수신된 메시지(610)의 내용이 사용자의 비우위안인 오른쪽 눈에 대응되는 디스플레이부(134)에 표시될 수 있다. That is, the control unit 110 is a word of the text included in the received message, if the word set in advance of high importance, that is, words such as 'immediately', 'contact', 'urgent', 'important' This may not be displayed on the display unit 132 corresponding to the user's superiority, so that the content of the received message 610 corresponds to the right eye of the user, as shown in FIG. The display unit 134 may be displayed.
한편 도 7은 본 발명의 실시 예에 따른 화상 정보 표시 장치에서, 동일한 기능이 수행되는 경우라고 할지라도 사용자의 상태를 감지한 결과에 근거하여 화상 정보가 표시되는 예를 보이고 있는 것이다. 이하의 도 7의 설명은, 미리 설정된 기능으로 네비게이션 기능이 포함되는 경우를 가정하고, 사용자의 양안 중 왼쪽 눈이 사용자의 우위안인 경우를 예로 들어 설명하기로 한다. 7 illustrates an example in which image information is displayed based on a result of sensing a user's state even when the same function is performed in the image information display apparatus according to an exemplary embodiment of the present invention. In the following description of FIG. 7, it is assumed that a navigation function is included as a preset function, and a case in which the left eye of the user's eyes is the superior eye of the user will be described as an example.
상술한 도 6의 (a)를 살펴보면, 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 제어부(110)는 네비게이션 기능이 실행되는 경우, 사용자의 위치가 이동되는 상태 및 사용자의 움직임(예를 들어 도보로 이동하는 상태)에 근거하여 네비게이션 정보와 관련된 화상 정보가 사용자의 우위안에 대응되는 디스플레이부(132) 상에 표시되는 것을 예로 들어 설명하였다. Referring to FIG. 6A, when the navigation function is executed, the controller 110 of the image information display apparatus 100 according to an embodiment of the present invention may move the user's position and the user's movement ( For example, the image information related to the navigation information is displayed on the display unit 132 corresponding to the user's superiority based on the state of moving by foot.
그러나 도 7에서 보이고 있는 것과 같이, 사용자가 차량에 탑승하고 있는 경우라면, 제어부(110)는 사용자의 움직임을 감지한 결과에 근거하여 네비게이션 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부(132) 상에 표시할지 여부를 결정할 수 있다. 즉, 제어부(110)는 사용자에 의해 네비게이션 기능이 실행되는 경우이며, 사용자의 위치가 이동중인 상태라고 할지라도, 도 7의 (a)에서 보이고 있는 것과 같이 사용자가 차량에 탑승한 경우, 상기 네비게이션 기능과 관련된 화상 정보를 디스플레이부들(132, 134) 중 사용자의 선택에 따른 어느 하나에 표시할 수 있다. 이에 따라 상기 네비게이션 기능에 관련된 화상 정보는 도 7의 (b)에서 보이고 있는 것과 같이 사용자의 비우위안, 즉 오른쪽 눈에 대응되는 디스플레이부(134)에 표시할 수 있다. 이는 도 7의 (a)에서 보이고 있는 것과 같이 사용자가 차량에 탑승한 경우, 사용자의 움직임이 기 설정된 수준 미만으로 감지될 수 있기 때문이다. 그리고 이러한 경우 제어부(110)는 사용자가 보다 빠르고 정확하게 네비게이션 정보를 제공받을 필요가 없다고 판단할 수 있기 때문이다. However, as shown in FIG. 7, when the user is in the vehicle, the controller 110 may display image information related to the navigation function based on a result of detecting the user's movement in the display unit corresponding to the user's superiority ( 132 may determine whether to display. That is, the control unit 110 is a case where the navigation function is executed by the user, even if the position of the user is moving, as shown in (a) of FIG. 7, when the user boards the vehicle, the navigation is performed. Image information related to a function may be displayed on any one of the display units 132 and 134 according to a user's selection. Accordingly, the image information related to the navigation function may be displayed on the display unit 134 corresponding to the user's non-comfort, that is, the right eye, as shown in FIG. 7B. This is because, as shown in (a) of FIG. 7, when the user boards the vehicle, the user's movement may be sensed below a preset level. In this case, the controller 110 may determine that the user does not need to receive navigation information more quickly and accurately.
한편, 비록 사용자가 차량에 탑승한 경우라고 할지라도, 사용자가 차량을 운전하는 운전자인 경우에는, 제어부(110)는 상기 네비게이션 기능에 관련된 화상 정보를 사용자의 우위안, 즉 왼쪽 눈에 대응되는 디스플레이부(132) 상에 표시할 수도 있다. 예를 들어 제어부(110)는 상기 사용자가 탑승한 차량이 사용자가 운전자로 미리 설정되어 있는 차량이거나, 또는 차량 내부의 카메라에 근거하여 사용자가 운전석에 착석하고 있는 경우에 상기 사용자가 차량을 운전하는 것으로 판단할 수 있다. On the other hand, even when the user is in the vehicle, when the user is a driver driving the vehicle, the controller 110 displays the image information related to the navigation function corresponding to the user's superior, that is, the left eye It may be displayed on the unit 132. For example, the controller 110 may be configured to drive the vehicle when the user is a vehicle in which the user is preset as a driver or when the user is seated in the driver's seat based on a camera inside the vehicle. It can be judged that.
이러한 경우 제어부(110)는 차량의 제어부(도시되지 않음)와 공조하여 차량의 운전석의 위치를 감지하고, 화상 정보 표시 장치(100)의 본체의 위치와 상기 운전석의 위치로부터 사용자가 상기 차량의 운전석에 탑승하였는지 여부를 판단할 수 있다. 또는 제어부(110)는 차량 내부의 카메라를 통해 일정 시간 간격으로 입력되는 이미지로부터 사용자의 움직임을 감지하고, 감지된 사용자의 움직임에 근거하여 사용자가 상기 차량의 운전자인지 여부를 판단할 수도 있다. 그리고 제어부(110)는 화상 정보 표시 장치(100)를 착용한 사용자가 차량의 운전자인 경우라면, 상기 네비게이션 기능에 관련된 화상 정보를 사용자의 우위안, 즉 왼쪽 눈에 대응되는 디스플레이부(132) 상에 표시할 수도 있다. 도 7의 (c)는 이러한 경우에 상기 네비게이션 기능과 관련된 화상 정보(700)가 사용자의 우위안, 즉 왼쪽 눈에 대응되는 디스플레이부(132) 상에 표시되는 예를 보이고 있는 것이다. In this case, the controller 110 cooperates with a control unit (not shown) of the vehicle to detect the position of the driver's seat of the vehicle, and the user may detect the driver's seat of the vehicle from the position of the main body and the position of the driver's seat of the image information display apparatus 100. It is possible to determine whether or not to board. Alternatively, the controller 110 may detect a user's movement from an image input at a predetermined time interval through a camera inside the vehicle, and determine whether the user is a driver of the vehicle based on the detected user's movement. If the user wearing the image information display apparatus 100 is a driver of a vehicle, the controller 110 displays image information related to the navigation function on the display unit 132 corresponding to the user's superior eye, that is, the left eye. You can also mark FIG. 7C illustrates an example in which the image information 700 related to the navigation function is displayed on the display unit 132 corresponding to the user's superiority, that is, the left eye in this case.
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 특히 본 발명의 실시 예에서는 네비게이션 기능 및 메시지가 수신되는 이벤트를 주로 예로 들어 설명하였으나 본 발명이 이에 국한되는 것은 아니다. 즉, 본 발명은 사용자에게 근접한 물체가 있는 경우 이를 알리기 위한 위해서도 사용될 수 있다. 이러한 경우 제어부(110)는 주변의 조도가 일정 수준 이하인 경우(예를 들어 늦인 시각인 경우) 또는 사용자가 미리 지정한 지역을 통과하는 경우(예를 들어 귀가시 사용자가 도보 등으로 경유하는 지역) 사용자에게 일정 거리 이내 근접한 물체가 감지되는 경우 사용자에게 이를 알리기 위한 알림 정보를, 사용자가 보다 빠르게 인식할 수 있도록 하기 위해 사용자의 우위안에 대응되는 디스플레이부에 표시할 수도 있다. Meanwhile, in the above description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. In particular, in the embodiment of the present invention, the navigation function and the event in which the message is received are mainly described as examples, but the present invention is not limited thereto. That is, the present invention can also be used to notify when there is an object close to the user. In this case, the control unit 110 is a user when the ambient illumination is below a certain level (for example, late time) or when the user passes through a predetermined area (for example, an area where the user passes by walking or the like when returning home). In the case where an object close to the target is detected within a predetermined distance, notification information for notifying the user may be displayed on the display unit corresponding to the user's superiority so that the user can recognize the object more quickly.
또한 본 발명의 실시 예에서는 사용자의 우위안에 화상 정보가 표시될 수 있는 특정 기능들이 미리 설정되어 있는 경우를 예로 들었으나, 이러한 기능들은 사용자의 선택에 따라 얼마든지 추가되거나 제외될 수도 있음은 물론이다. 또한 본 발명의 실시 예에서는, 감지되는 주변 상황으로 위치 이동 상태 및 사용자의 움직임 상태를 예로 들었으나, 이는 네비게이션 기능과 관련된 주변 상황일 뿐, 모든 기능이 이를 감지하는 것은 아니다. 즉 설정되는 기능들에 따라 서로 다른 다양한 주변 상황이 감지될 수 있으며, 그에 따라 해당 기능과 관련된 화상 정보가 사용자의 우위안에 표시되어야 하는지 여부가 결정될 수 있다. In addition, in the exemplary embodiment of the present invention, a specific function capable of displaying image information in the user's superiority is set as an example. However, these functions may be added or excluded as much as the user selects. . In addition, in the embodiment of the present invention, the location movement state and the user's movement state as an example of the detected surrounding situation, but this is only the surrounding situation related to the navigation function, not all functions detect this. That is, various different surrounding situations can be detected according to the functions to be set, and accordingly, it can be determined whether image information related to the function should be displayed in the user's superiority.
한편 상술한 설명에서는, 사용자가 선택한 기능 또는 이벤트에 의해 발생되는 기능에 근거하여 사용자의 우위안에 대응되는 디스플레이부 상에 표시될 화상 정보가 결정되는 것을 예로 들어 설명하였으나, 이와는 달리 상기 디스플레이부 상에 표시되는 컨텐츠에 따라 결정될 수도 있음은 물론이다. 즉, 예를 들어 사용자가 선택한 멀티미디어 컨텐츠가 영화나 게임 등 사용자가 몰입 가능한 컨텐츠(이하 몰입형 컨텐츠라고 칭한다)인 경우라면, 제어부(110)는 상기 몰입형 컨텐츠를 상기 디스플레이부(132, 134) 모두 또는 적어도 하나에 표시할 수도 있다. 그러나 만약 사용자가 선택한 컨텐츠가 일정 알림이나 지역 정보등과 같이 몰입형 컨텐츠가 아닌 경우(이하 비몰입형 컨텐츠), 제어부(110)는 이를 사용자의 우위안에 대응되는 디스플레이부에 표시되도록 할 수도 있다. Meanwhile, in the above description, the image information to be displayed on the display unit corresponding to the user's superiority is determined based on the function selected by the user or the function generated by the event. Of course, it may be determined according to the displayed content. That is, for example, if the multimedia content selected by the user is content that the user can immerse, such as a movie or a game (hereinafter referred to as immersive content), the controller 110 displays the immersive content in the display units 132 and 134. All or at least one may be indicated. However, if the content selected by the user is not immersive content such as schedule notification or local information (hereinafter, referred to as non-immersive content), the controller 110 may display it on a display unit corresponding to the user's superiority.
여기서 상기 몰입형 컨텐츠 또는 비몰입형 컨텐츠는, 사용자에 의해 미리 설정될 수 있으며, 또는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)가 출고될 때에 미리 설정되어 있을 수도 있다. 예를 들어 영화나 게임등과 같은 멀티미디어 컨텐츠가 상기 몰입형 컨텐츠로 설정될 수 있으며, 이러한 몰입형 컨텐츠를 제외한 다른 컨텐츠에 관련된 화상 정보는 비몰입형 컨텐츠로 설정될 수 있다. The immersive content or the non-immersive content may be preset by the user or may be preset when the image information display apparatus 100 according to the embodiment of the present invention is shipped. For example, multimedia content such as a movie or a game may be set as the immersive content, and image information related to other contents except for the immersive content may be set as non-immersive content.
한편, 제어부(110)는 몰입형 컨텐츠가 상기 디스플레이부들(132, 134)에 모두 표시되는 상태인 경우, 기 설정된 이벤트가 발생되는 경우 상기 이벤트에 관련된 알림 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수 있다. 예를 들어 제어부(110)는 상술한 바와 같이 메시지가 수신되거나, 호가 착신되는 경우 또는 특정 물체가 기 설정된 거리 이내로 접근하는 등의 이벤트가 발생하는 경우 이를 알리기 위한 알림 정보를 표시할 수 있다. 그리고 상기 알림 정보는 사용자의 우위안에 대응되는 디스플레이부 상에 표시될 수 있으며, 상기 알림 정보와 함께 또는 상기 알림 정보 보다 먼저 음향 신호가 더 출력될 수도 있다. 여기서 상기 기 설정된 이벤트는 사용자에 의해 미리 설정될 수 있으며, 또는 본 발명의 실시 예에 따른 화상 정보 표시 장치(100)의 출고시부터 미리 설정될 수 있다. Meanwhile, when the immersive content is displayed on the display units 132 and 134, the controller 110 displays notification information related to the event in the display unit corresponding to the user's superiority when a preset event occurs. Can be marked on. For example, as described above, the controller 110 may display notification information for notifying when a message is received, when a call is received, or when an event such as a specific object approaches within a predetermined distance occurs. The notification information may be displayed on a display unit corresponding to the superiority of the user, and a sound signal may be further output together with the notification information or before the notification information. The preset event may be preset by the user, or may be preset from the time of shipment of the image information display apparatus 100 according to an exemplary embodiment of the present invention.
한편 상술한 설명에서는, 네비게이션 기능 또는 상기 네비게이션 기능과 관련된 기능이 화상 정보 표시 장치(100)에서 실행되는 경우에, 제어부(110)가 상기 기능과 관련된 화상 정보를, 사용자의 상황을 판단한 결과에 근거하여 사용자의 우위안에 대응되는 디스플레이부 상에 표시하는 것을 예로 들어 설명하였으나, 이는 본 발명의 실시 예일 뿐 본 발명이 이에 한정되는 것은 아니다. 즉 상기한 네비게이션 기능 또는 그와 관련된 기능 외에도 얼마든지 사용자의 선택에 따라 다른 다양한 기능들이 선택될 수도 있음은 물론이다. Meanwhile, in the above description, when the navigation function or the function related to the navigation function is executed in the image information display device 100, the control unit 110 determines the image information related to the function based on the result of the user's situation. The display on the display unit corresponding to the superiority of the user has been described as an example. However, the present invention is not limited thereto. That is, in addition to the above-described navigation function or a function related thereto, various other functions may be selected depending on the user's selection.
예를 들어, 상기 기능으로 메시지 기능 등이 선택될 수도 있다. 이러한 경우 제어부(110)는, 메시지의 수신 또는 발신시에, 현재 사용자의 상황을 판단한 결과에 근거하여, 수신된 메시지 또는 메시지의 내용을 작성하기 위한 애플리케이션과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시할 수도 있음은 물론이다. 이러한 경우 상기 도 6의 (b)에서 보이고 있는 것과 달리, 상기 수신된 메시지의 내용(610)이 사용자의 우위안에 대응되는 디스플레이부(132)에 표시될 수도 있다. For example, a message function or the like may be selected as the function. In this case, the control unit 110 corresponds to the user's priority in the image information associated with the application for creating the received message or the content of the message, based on the result of determining the current user's situation at the time of receiving or sending the message. Of course, it can also be displayed on the display unit. In this case, unlike shown in FIG. 6B, the content 610 of the received message may be displayed on the display unit 132 corresponding to the user's superiority.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer readable codes on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet). In addition, the computer may include the controller 180 of the terminal. The above detailed description, therefore, is not to be taken in a limiting sense in all respects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Claims (20)

  1. 화상 정보 표시 장치에 있어서, In the image information display device,
    전면부 및 후면부를 구비하고, 후면부측에 위치한 사물들이 비치도록 투명하게 형성되며 사용자의 양안에 각각 대응되는 복수의 글래스 디스플레이부를 포함하는 본체;A main body having a front part and a rear part, the main body including a plurality of glass display parts respectively formed to be transparent so that objects located at the rear part side thereof are reflected;
    상기 본체 주변 상황을 감지하는 감지부;A detector configured to detect a situation around the main body;
    사용자의 우위안과 비우위안에 대한 정보를 포함하는 메모리; 및,A memory containing information about the user's superior and non-eligibility; And,
    상기 복수의 디스플레이부 중 적어도 하나에, 멀티미디어 컨텐츠와 관련된 화상 정보 및 상기 화상 정보 표시 장치에서 실행 가능한 기능들 중 적어도 하나에 관련된 화상 정보를 표시하는 제어부를 포함하며, A control unit for displaying at least one of image information related to multimedia content and image information related to at least one of functions executable in the image information display apparatus, on at least one of the plurality of display units;
    상기 제어부는, The control unit,
    기 설정된 기능이 실행되는 경우, 상기 본체 주변의 상황을 감지한 결과에 따라 현재 사용자의 상황을 판단하고, 사용자의 상황을 판단한 결과에 따라 상기 실행되는 기능에 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. When the preset function is executed, the current user's situation is determined according to the result of detecting the situation around the main body, and the image information related to the executed function is included in the user's superiority according to the result of the user's situation. The image information display apparatus characterized by displaying on a display part.
  2. 제1항에 있어서, 상기 제어부는, The method of claim 1, wherein the control unit,
    상기 본체의 주변 상황을 감지한 결과에 근거하여 사용자의 위치가 이동되는 상태인지 여부를 판단하고, 판단 결과에 따라 상기 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하며, It is determined whether or not the position of the user is moved based on a result of detecting the surrounding situation of the main body, and according to the determination result, image information related to the function is displayed on the display unit corresponding to the user's superiority
    상기 기 설정된 기능은, The preset function,
    네비게이션 기능 및 상기 네비게이션 기능과 관련된 기능임을 특징으로 하는 화상 정보 표시 장치. And a navigation function and a function related to the navigation function.
  3. 제2항에 있어서, The method of claim 2,
    상기 감지부는, The detection unit,
    상기 본체 외부의 이미지를 수신하는 카메라를 포함하며, It includes a camera for receiving an image outside the main body,
    상기 제어부는, The control unit,
    상기 카메라로부터 수신되는 이미지가 일정 시간 내에 변경되는 정도에 근거하여 상기 사용자의 상황을 판단하는 것을 특징으로 하는 화상 정보 표시 장치. And determining the situation of the user based on the degree to which the image received from the camera is changed within a predetermined time.
  4. 제2항에 있어서, The method of claim 2,
    상기 감지부는, The detection unit,
    사용자의 움직임을 감지하기 위한 적어도 하나의 센서를 더 포함하고,Further comprising at least one sensor for detecting the movement of the user,
    상기 제어부는, The control unit,
    사용자의 위치가 이동되는 상태인 경우, 상기 감지부로부터 감지된 사용자의 움직임에 근거하여 상기 사용자의 상황을 판단하는 것을 특징으로 하는 화상 정보 표시 장치. And when the position of the user is moved, determining the situation of the user based on the movement of the user sensed by the sensing unit.
  5. 제4항에 있어서, 상기 제어부는, The method of claim 4, wherein the control unit,
    상기 감지된 사용자의 움직임이 기 설정된 수준 미만인 경우, 사용자가 운송 수단을 이용하여 이동하고 있는 것으로 판단하고, If the detected movement of the user is less than a predetermined level, it is determined that the user is moving by using a vehicle,
    사용자가 상기 운송 수단의 운전자인지 여부에 근거하여 상기 기능과 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. And image information related to the function is displayed on a display unit corresponding to the user's superiority based on whether the user is a driver of the vehicle.
  6. 제5항에 있어서, 상기 제어부는, The method of claim 5, wherein the control unit,
    사용자가 탑승한 운송 수단이 기 설정된 차량인지 여부에 근거하여 사용자가 상기 운송 수단을 운전하는 운전자인지 여부를 판단하는 것을 특징으로 하는 화상 정보 표시 장치. And determining whether the user is a driver driving the transportation means based on whether the vehicle on which the user rides is a preset vehicle.
  7. 제5항에 있어서, 상기 제어부는, The method of claim 5, wherein the control unit,
    상기 운송 수단의 전반적인 구동을 제어하는 운송 수단 제어부를 통해 상기 운송 수단의 운전석 위치를 감지하고, 상기 운전석의 위치와 상기 본체의 위치에 근거하여 사용자가 상기 운송 수단을 운전하는 운전자인지 여부를 판단하는 것을 특징으로 하는 화상 정보 표시 장치. Detecting a driver's seat position of the vehicle through a vehicle control unit controlling overall driving of the vehicle, and determining whether the user is a driver driving the vehicle based on the position of the driver's seat and the position of the main body; An image information display device.
  8. 제1항에 있어서, 상기 네비게이션 기능과 관련된 기능은, The method of claim 1, wherein the function related to the navigation function is:
    사용자의 현재 위치 주변의 지형지물에 대한 정보를 표시하는 기능을 포함하는 것을 특징으로 하는 화상 정보 표시 장치.And a function for displaying information about a feature around a user's current location.
  9. 제1항에 있어서, The method of claim 1,
    상기 기 설정된 기능은, The preset function,
    기 설정된 이벤트에 의해 실행되는 기능을 포함하며, Contains functions executed by preset events,
    상기 기 설정된 이벤트는, The preset event,
    메시지의 수신 또는 호가 착신되는 경우에 발생하는 것을 특징으로 하는 화상 정보 표시 장치. An image information display apparatus, which occurs when a message is received or a call is received.
  10. 제9항에 있어서, 상기 제어부는, The method of claim 9, wherein the control unit,
    상기 기 설정된 이벤트가 발생하는 경우, 상기 발생된 이벤트의 중요도를 평가하고 평가된 중요도에 근거하여, 상기 발생된 이벤트에 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부 상에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. When the preset event occurs, the importance of the generated event is evaluated, and based on the evaluated importance, image information related to the generated event is displayed on a display unit corresponding to the superiority of the user. Image information display device.
  11. 제10항에 있어서, 상기 제어부는,The method of claim 10, wherein the control unit,
    상기 기 설정된 이벤트가 메시지의 수신인 경우, 상기 메시지에 포함된 텍스트에 근거하여 상기 중요도를 평가하는 것을 특징으로 하는 화상 정보 표시 장치. And when the preset event is reception of a message, evaluating the importance based on text included in the message.
  12. 제11항에 있어서, 상기 제어부는, The method of claim 11, wherein the control unit,
    상기 메시지에 포함된 텍스트에, 미리 설정된 단어가 포함되어 있는지를 검색하고, 미리 설정된 단어가 적어도 하나 검색된 경우 각 단어에 서로 다르게 매칭된 중요도 점수를 합산한 결과에 근거하여 상기 메시지의 중요도를 평가하는 것을 특징으로 하는 화상 정보 표시 장치. Searching for whether a predetermined word is included in the text included in the message, and evaluating the importance of the message based on a result of summing different importance scores matched with each word when at least one preset word is found. An image information display device.
  13. 제10항에 있어서, 상기 제어부는, The method of claim 10, wherein the control unit,
    상기 기 설정된 이벤트가 호의 착신인 경우, 상기 착신된 호의 전화번호에 근거하여 상기 중요도를 평가하는 것을 특징으로 하는 화상 정보 표시 장치. And when the preset event is a call, the importance is evaluated based on the telephone number of the received call.
  14. 제1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 화상 정보 표시 장치에서 현재 실행되는 기능에 따라, 본체의 주변 상황을 서로 다르게 감지하는 것을 특징으로 하는 화상 정보 표시 장치. And an ambient condition of the main body is differently detected according to a function currently executed in the image information display device.
  15. 제1항에 있어서, The method of claim 1,
    상기 기 설정된 기능은,The preset function,
    일정 거리 이내로 사용자에게 접근한 물체의 감지되는 경우, 사용자에게 이를 알리기 위한 알림 정보를 표시하는 기능을 포함하며, When the detection of the object approaching the user within a certain distance, it includes a function for displaying the notification information for notifying the user,
    상기 제어부는, The control unit,
    상기 본체 주변의 환경을 감지한 결과, 상기 본체 주변의 조도가 기 설정된 수준 이하 및, 상기 본체가 위치한 지역 중 적어도 하나에 근거하여, 상기 물체의 접근을 알리기 위한 알림 정보를 상기 사용자의 우위안에 대응되는 디스플레이부 상에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. As a result of sensing the environment around the main body, notification information for notifying the approach of the object is based on the user's superiority based on at least one of the illuminance around the main body and at least one of an area where the main body is located. And display on a display unit.
  16. 제1항에 있어서, 상기 제어부는, The method of claim 1, wherein the control unit,
    상기 멀티미디어 컨텐츠의 종류를 구분하고, 상기 멀티미디어 컨텐츠의 종류에 따라 상기 멀티미디어 컨텐츠와 관련된 화상 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. And classifying the type of the multimedia content and displaying image information related to the multimedia content on a display unit corresponding to the user's superiority according to the type of the multimedia content.
  17. 제1항에 있어서, 상기 제어부는, The method of claim 1, wherein the control unit,
    상기 멀티미디어 컨텐츠에 관련된 화상 정보를 상기 디스플레이부들 모두에 표시하는 상태에서, 기 설정된 이벤트가 발생하는 경우 상기 발생된 이벤트에 대한 알림 정보를 사용자의 우위안에 대응되는 디스플레이부에 표시하는 것을 특징으로 하는 화상 정보 표시 장치. In a state in which image information related to the multimedia content is displayed on all of the display units, when a predetermined event occurs, notification information on the generated event is displayed on a display unit corresponding to the user's superiority. Information display device.
  18. 제1항에 있어서, 상기 제어부는, The method of claim 1, wherein the control unit,
    사용자 주변의 상황을 감지한 결과에 근거하여 상기 우위안에 대응되는 디스플레이부상에 표시되는 화상 정보의 위치를 결정하는 것을 특징으로 하는 화상 정보 표시 장치. And determining the position of the image information displayed on the display unit corresponding to the upper eye based on the result of detecting the situation around the user.
  19. 제18항에 있어서, 상기 제어부는, The method of claim 18, wherein the control unit,
    상기 우위안에 대응되는 디스플레이부에 비치는 사물들 중, 기 설정된 사물들이 식별가능하게 표시되는 디스플레이 영역을 제외한 다른 영역에 상기 화상 정보를 표시하는 것을 특징으로 하는 화상 정보 표시 장치. And displaying the image information in an area other than a display area in which preset objects are distinguishably displayed among objects reflected in the display unit corresponding to the upper eye.
  20. 복수의 글래스 디스플레이부를 구비하는 화상 정보 표시 장치를 제어하는 방법에 있어서, In the method for controlling the image information display device having a plurality of glass display unit,
    기 설정된 기능의 실행 여부를 판단하는 단계; Determining whether to execute a preset function;
    상기 기 설정된 기능이 실행된 경우, 상기 화상 정보 표시 장치 본체 주변의 상황을 감지하여 사용자의 상황을 판단하는 단계; 및, Determining a situation of a user by detecting a situation around the main body of the image information display apparatus when the preset function is executed; And,
    상기 판단된 사용자의 상황에 근거하여, 상기 기 설정된 기능의 실행과 관련된 화상 정보를 상기 복수의 글래스 디스플레이부 중 사용자의 우위안에 대응되는 디스플레이부에 표시하는 단계를 포함하는 것을 특징으로 하는 화상 정보 표시 장치의 제어 방법.And displaying the image information related to the execution of the preset function on a display unit corresponding to the user's superiority among the plurality of glass display units, based on the determined situation of the user. Control method of the device.
PCT/KR2014/009687 2014-10-15 2014-10-15 Image information display device and control method therefor WO2016060293A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/009687 WO2016060293A1 (en) 2014-10-15 2014-10-15 Image information display device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/009687 WO2016060293A1 (en) 2014-10-15 2014-10-15 Image information display device and control method therefor

Publications (1)

Publication Number Publication Date
WO2016060293A1 true WO2016060293A1 (en) 2016-04-21

Family

ID=55746822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/009687 WO2016060293A1 (en) 2014-10-15 2014-10-15 Image information display device and control method therefor

Country Status (1)

Country Link
WO (1) WO2016060293A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100076039A (en) * 2007-11-22 2010-07-05 가부시끼가이샤 도시바 Display device, display method and head-up display
US20120289217A1 (en) * 2005-09-26 2012-11-15 Zoomsafer Inc. Safety features for portable electronic device
KR20130034125A (en) * 2011-09-28 2013-04-05 송영일 Augmented reality function glass type monitor
US20130336629A1 (en) * 2012-06-19 2013-12-19 Qualcomm Incorporated Reactive user interface for head-mounted display
KR20140066258A (en) * 2011-09-26 2014-05-30 마이크로소프트 코포레이션 Video display modification based on sensor input for a see-through near-to-eye display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120289217A1 (en) * 2005-09-26 2012-11-15 Zoomsafer Inc. Safety features for portable electronic device
KR20100076039A (en) * 2007-11-22 2010-07-05 가부시끼가이샤 도시바 Display device, display method and head-up display
KR20140066258A (en) * 2011-09-26 2014-05-30 마이크로소프트 코포레이션 Video display modification based on sensor input for a see-through near-to-eye display
KR20130034125A (en) * 2011-09-28 2013-04-05 송영일 Augmented reality function glass type monitor
US20130336629A1 (en) * 2012-06-19 2013-12-19 Qualcomm Incorporated Reactive user interface for head-mounted display

Similar Documents

Publication Publication Date Title
RU2670784C2 (en) Orientation and visualization of virtual object
WO2016021747A1 (en) Head-mounted display device and control method therefor
WO2017119737A1 (en) Method and device for sharing image information in communication system
EP3019964A1 (en) Mobile device, head mounted display and method of controlling therefor
WO2015167080A1 (en) Unmanned aerial vehicle control apparatus and method
WO2014025108A1 (en) Head mounted display for adjusting audio output and video output in relation to each other and method for controlling the same
US20120242510A1 (en) Communication connecting apparatus and method thereof
WO2020171513A1 (en) Method and apparatus for displaying surrounding information using augmented reality
WO2015046676A1 (en) Head-mounted display and method of controlling the same
WO2015163536A1 (en) Display device and method for controlling the same
WO2017010632A1 (en) Mobile device and control method therefor
WO2015105236A1 (en) A head mounted display and method of controlling thereof
WO2020185029A1 (en) Electronic device, and method for displaying sharing information on basis of augmented reality
WO2017217713A1 (en) Method and apparatus for providing augmented reality services
WO2018131928A1 (en) Apparatus and method for providing adaptive user interface
KR20160097655A (en) Mobile terminal and method for controlling the same
WO2018056617A1 (en) Wearable device and method for providing widget thereof
WO2015111805A1 (en) Wearable terminal and system including same
WO2021230568A1 (en) Electronic device for providing augmented reality service and operating method thereof
WO2018097483A1 (en) Motion information generating method and electronic device supporting same
US9747871B2 (en) Portable terminal device, program, device shake compensation method, and condition detection method
WO2012081787A1 (en) Image processing apparatus of mobile terminal and method thereof
WO2020145653A1 (en) Electronic device and method for recommending image capturing place
WO2016060293A1 (en) Image information display device and control method therefor
WO2018186642A1 (en) Electronic device and screen image display method for electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14903976

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14903976

Country of ref document: EP

Kind code of ref document: A1