移动终端及其3D图像控制方法与流程

文档序号:12670882阅读:234来源:国知局
移动终端及其3D图像控制方法与流程
本发明涉及一种能够根据环境亮度调整三维(3D)图像和3D对象的特性的移动终端及其3D图像控制方法。

背景技术:
移动终端(或电子装置)可以被构造为执行各种功能,例如,数据和语音通信,捕获图像或视频,存储语音,经由扬声器系统再现音乐文件,显示图像或视频等等。一些移动终端可以包括玩游戏的额外的功能,并且其它移动终端可以实施为多媒体播放器。另外,近来,移动终端能够接收广播或者多播信号以允许观看视频或电视节目。另外,正在努力支持和增强这样的移动终端的各种功能。这样的努力不仅包括实施移动终端的结构组件的改变和改进还包括软件或硬件改进。在这些之中,移动终端的触摸功能被设计用于不熟悉按钮/键输入的使用触摸屏幕的用户方便地执行移动终端的操作。近来,除了简单的输入功能之外,触摸功能正在与用户界面(UI)一起变为终端的重要功能。因此,随着触摸功能被以各种形式进一步应用于移动终端,更加需要适当的UI的发展。近来,移动终端发展为显示三维(3D)图像,以允许超越2D图像显示级别的深度感觉和立体视觉,并且已经一个接一个地发布了相关产品。这允许用户使用具有3D成像功能的移动终端感觉更真实的3D立体图像,并且使用与3D立体图像相关的各种用户界面或内容。当用户使用移动终端观看3D图像时,图像的深度被固定到默认值。这导致了对于表达每个对象的维度的感觉(立体效果)的限制。因此,用户需要观看具有相同深度的3D图像,而不管周围环境(特别地,环境亮度(光量))如何。然而,即使图像具有固定深度,用户所感觉的深度也会依赖于环境亮度(光量)和屏幕亮度。因此,当这样的情况持续较长时间时,用户会显著地感觉到疲劳。然而,现有技术还没有提供在这样的情况下调整3D图像的深度以减少眼疲劳的令人满意的用户界面(UI)。

技术实现要素:
因此,详细描述的方面提供了一种能够通过根据环境亮度调整屏幕亮度和深度感觉来改进三维(3D)图像的可视性和观看方便性的移动终端及其调整图像深度的方法。详细描述的另一方面提供了一种能够在3D转换时自动调整与对象相关的属性信息(例如,颜色、亮度和饱和度)及其调整图像深度的方法。为了实现这些和其它优点并且根据本发明的目的,如这里具体实施和广泛描述的,提供了一种移动终端中控制三维(3D)图像的方法,该方法包括:显示包括多个对象的二维(2D)图像;响应于触摸输入将2D图像转换为3D图像;测量环境亮度;以及使用对应于测量的环境亮度的控制值自动调整屏幕亮度和3D图像的深度。3D图像可以是完全3D模式或者部分3D模式的图像,并且可以通过光学传感器来测量环境亮度。控制值可以通过映射到环境亮度而存储在存储器的信息表中。这里,控制值可以包括关于完全3D模式中的整个3D图像的深度和屏幕亮度的值以及关于部分3D模式中的屏幕亮度、所选择的3D对象的深度和亮度以及背景亮度的值。根据一个示例性实施方式,自动调整步骤可以包括:从预存储的信息表中搜索映射到测量的环境亮度的亮度值和深度值,以及基于搜索到的亮度值和深度值调整屏幕亮度和3D图像的深度。根据一个示例性实施方式,自动调整步骤可以包括:当应用完全3D模式时检查测量的环境亮度是否属于平均值范围,当测量的环境亮度属于平均值范围时,基于控制值仅调整3D图像的深度,以及当测量的环境亮度处于平均值范围之外时,基于对应于环境亮度的控制值调整屏幕亮度和3D图像的深度。根据另一示例性实施方式,自动调整步骤可以包括:当应用部分3D模式时,将测量的环境亮度、每个对象的深度和屏幕亮度与预置的参考值进行比较,当根据比较结果,每个对象的深度均匀时,基于测量的环境亮度调整对象的亮度和背景的亮度,当测量的环境亮度属于平均值范围时,基于测量的环境亮度调整每个对象的亮度和深度以及背景的亮度,以及当屏幕亮度均匀时,基于测量的环境亮度调整对象的深度和背景的亮度。移动终端中控制3D图像的方法可以进一步包括通过使用3D调整指示器在屏幕的一侧显示3D图像的深度调整级别,并且响应于经由显示的3D调整指示器的用户输入进一步调整3D图像的深度。当通过3D调整指示器调整3D图像的深度时,屏幕亮度可以自动地设置或者响应于经由3D调整指示器施加的用户输入(触摸计数,移动)来设置。移动终端中控制3D图像的方法可以进一步包括基于转换后的3D图像中包括的每个对象的3D深度值改变每个对象的特性,以及显示包括特性改变后的对象的3D图像。每个对象的特性可以包括与每个对象的形状、大小和颜色相关的属性信息中的至少一种,并且与颜色相关的属性信息可以包括颜色、亮度和饱和度中的至少一种。优选地,改变每个对象的特性的步骤可以包括使用每个对象的3D深度值计算对象的平均3D深度值,以及基于每个对象的3D深度值和计算出的平均3D深度值之间的差改变每个对象的特性。移动终端中控制3D图像的方法可以进一步包括当感测到施加到特定对象的触摸输入时,基于与对应的对象中包括的颜色相关的属性信息将特定对象划分为多个区域,以及基于与每个划分区域的颜色相关的属性信息改变每个区域的3D深度值。移动终端中控制3D图像的方法可以进一步包括当感测到施加到对应的对象的触摸输入时,检测施加到特定对象的触摸级别,并且根据检测到的触摸级别改变对应的对象的3D深度值。触摸级别可以包括触摸保持时间、触摸次数和拖拽长度,并且当感测到多个触摸输入时,触摸级别表示两个触摸点之间的距离。为了实现这些和其它优点并且根据本发明的目的,如这里具体实施和广泛描述的,提供了一种移动终端,该移动终端包括:显示单元,该显示单元被构造为显示包括多个图像的2D图像;存储器,该存储器被构造为存储控制值,所述控制值被设置为对应于每个对象的特性和环境亮度;感测单元,该感测单元被构造为感测环境亮度或者触摸输入;以及控制器,该控制器被构造为响应于触摸输入将2D图像转换为3D图像,并且从存储器中搜索对应于由感测单元感测到的环境亮度的控制值,以自动地调整屏幕亮度和3D图像的深度。控制值可以通过映射到环境亮度而存储在存储器的信息表中。这里,控制值可以包括关于完全3D模式中的整个3D图像的深度和屏幕亮度的值以及关于部分3D模式中的屏幕亮度、所选择的3D对象的深度和亮度以及背景亮度的值。当应用完全3D模式时,控制器可以检查测量的环境亮度是否属于平均值范围,当测量的环境亮度属于平均值范围时,仅调整3D图像的深度,并且当测量的环境亮度处于平均值范围之外时,基于对应于测量的环境亮度的控制值调整屏幕亮度和3D图像的深度。当应用部分3D模式时,控制器可以将感测的环境亮度、每个对象的深度和屏幕亮度与预置的参考值进行比较,当根据比较结果,每个对象的深度均匀时,基于感测的环境亮度调整对象的亮度和背景的亮度,当感测的环境亮度属于平均值范围时,基于感测的环境亮度调整每个对象的亮度和深度以及背景的亮度,以及当屏幕亮度均匀时,基于感测的环境亮度调整对象的深度和背景的亮度。当自动调整环境亮度和深度时,控制器可以使用3D调整指示器在屏幕的一侧显示深度调整级别,并且响应于经由3D调整指示器的用户输入进一步调整3D图像的深度当通过使用3D调整指示器来调整3D图像的深度时,控制器可以自动地设置最优的屏幕亮度或者根据3D调整指示器的移动距离、移动方向和触摸次数来设置3D图像的深度和屏幕亮度。根据另一示例性实施方式,控制器可以基于转换后的3D图像中包括的每个对象的3D深度值改变每个对象的特性,以及在显示单元上显示包括特性改变后的对象的3D图像。控制器可以基于每个对象的3D深度值计算平均3D深度值,并且基于每个对象的3D深度值和计算出的平均深度值之间的差改变每个对象的特性每个对象的特性可以包括与每个对象的形状、大小和颜色相关的属性信息中的至少一种,并且与颜色相关的属性信息可以包括颜色、亮度和饱和度中的至少一种。控制器可以基于与每个对象中包括的颜色相关的属性信息将每个对象划分为多个区域,并且基于与多个区域中的每一个区域的颜色相关的属性信息改变每个区域的3D深度值。当感测到施加到特定对象的触摸输入时,控制器可以基于施加到对应的对象的触摸级别改变特定对象的3D深度值。触摸级别可以包括触摸保持时间、触摸次数和拖拽长度,并且当感测到多个触摸输入时,触摸级别表示两个触摸点之间的距离。根据下面的详细描述,本发明的应用的进一步的范围将变得更加明显。然而,应理解的是,详细描述和具体示例仅被示出用于表示本发明的优选实施方式,并且根据下面的详细描述,本领域技术人员将能够容易地想到处于本发明的范围内的各种改变和修改。附图说明附图被包括进来以提供本发明的进一步理解,并且被并入本申请且构成本申请的一部分,示出了本发明的实施方式,并且与说明书一起用于说明本发明的原理。在附图中:图1是根据一个示例性实施方式的移动终端的框图;图2A是根据一个示例性实施方式的移动终端的前透视图,并且图2B是图2A中所示的移动终端的后透视图;图3是可利用根据一个实施方式的移动终端操作的无线通信系统的框图;图4是示出移动(可切换)视差栅栏类型的3D模式的示例性视图;图5是主动柱状透镜类型的3D模式的示例性视图;图6是示出根据第一示例性实施方式的移动终端的3D图像控制方法的流程图;图7是示出通常的3D图像的深度的示例性视图;图8是示出根据由光学传感器测量的环境亮度控制3D图像的深度的示例性视图;图9是示出根据第二示例性实施方式的移动终端的3D图像控制方法的流程图;图10A和图10B是示出允许用户调整3D图像的深度的D可调整UI的示例性视图;图11是示出根据第三示例性实施方式的移动终端的3D图像控制方法的流程图;图12是示出根据第四示例性实施方式的移动终端的3D图像控制方法的流程图;图13A至图13C是根据图12的示例性实施方式改变3D图像中包括的对象的特性的示例性视图;图14是示出根据第五示例性实施方式的移动终端的3D图像控制方法的流程图;图15A和图15B是根据图14的示例性实施方式改变3D图像中包括的每个对象的深度的示例性视图;图16是示出根据第六示例性实施方式的移动终端的3D图像控制方法的流程图;以及图17A和图17B和图18A和图18B是根据图16的示例性实施方式改变3D图像中包括的每个对象的深度的示例性视图。具体实施方式现在将参考附图详细描述根据本发明的移动终端的优选构造。在下面的描述中,在描述中使用用于组件的“模块”和“单元或部分”的后缀仅为了有利于本说明书的说明,并且因此其不具有特定的意义或功能。因此,应注意的是,能够一起使用“模块”与“单元或部分”。移动终端可以以各种不同类型的终端来实施。这样的终端的示例包括诸如移动电话、智能电话、笔记本电脑、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面的描述假设终端是移动终端。然而,本领域技术人员能够容易地理解,除了特别用于移动目的的元件之外,根据下面的描述的构造也能够应用于固定终端。图1是根据本发明的实施方式的移动终端的框图。移动终端100可以包括各种组件,例如无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。下面按顺序描述各个组件。无线通信单元110可以通常包括一个或多个组件,其允许移动终端100与无线通信系统之间或者移动终端100与移动终端100位于其中的网络之间的无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115等等。广播接收模块111经由广播信道从外部广播管理实体接收广播信号和/或广播相关信息。广播相关信息的示例可以包括与广播信道、广播节目、广播服务提供商等等相关的信息。广播相关信息可以经由移动通信网络来提供,并且由移动通信模块112来接收。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在适当的装置(例如,存储器160)中。移动通信模块112将无线信号发送到移动通信网络上的至少一个网络实体(例如,基站、外部移动终端、服务器等等)/从其接收无线信号。这里,无线信号可以包括语音通话信号、视频通话信号或者根据文本/多媒体消息的发送/接收的各种格式的数据。无线互联网模块113支持用于移动终端的无线互联网接入。该模块可以内部或外部地耦接到移动终端。这样的无线互联网接入的示例可以包括无线LAN(WLAN)、Wi-Fi、无线宽带(Wibro)、全球微波互联接入(Wimax)、高速下行链路分组接入(HSDPA)等等。短程通信模块114表示用于短程通信的模块。用于实施该模块的适合的技术可以包括蓝牙、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂等等。位置信息模块115表示用于检测或计算移动终端的位置的模块。位置信息模块115的示例是全球定位系统(GPS)模块。参考图1,A/V输入单元120被构造为将音频或视频信号输入提供给移动终端。A/V输入单元120可以包括相机121和麦克风122。相机121接收在视频通话模式或捕获模式中由图像传感器获得的静态图片或视频的图像帧并且对其进行处理。处理后的图像帧可以显示在显示单元151上。由相机121处理的图像帧可以存储在存储器160中或者经由无线通信单元110发送到外部。可以根据移动终端的构造提供两个或更多相机121。麦克风122可以在移动终端处于特定模式(例如,电话通话模式、记录模式、语音识别模式等等)中时经由麦克风接收外部音频信号。该音频信号被处理为数字数据。处理后的数字数据在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以包括各种类型的噪声移除算法以移除在接收外部音频信号的过程中产生的噪声。用户输入单元130可以生成由用户输入的输入数据以控制移动终端的操作。用户输入单元130可以包括键盘、锅仔片、触摸板(例如,静压力/电容)、滚轮、摇杆等等。感测单元140可以检测移动终端100的打开/关闭状态、移动终端100的位置的改变、用户对于移动终端100的接触的有无、移动终端100的位置、移动终端100的加速/减速等等,以生成用于控制移动终端100的操作的感测信号。例如,关于滑动型移动终端,感测单元140可以感测移动终端的滑动部分是打开还是关闭。其它示例包括感测功能,例如感测单元140感测电源单元190提供的电力的有无、接口单元170与外部装置之间的耦接或其它连接的有无等等。这里,感测单元140可以包括接近传感器141。输出单元150被构造为输出音频信号、视频信号或警报信号。输出单元150可以包括显示单元151、音频输出模块153、警报单元154、触觉模块155等等。显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、UI或GUI等等。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管-LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器和电子墨水显示器等等中的至少一种。这些显示器中的一些可以被构造为透明以允许从外部观看,这可以称为透明显示器。典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。显示单元151的后部结构可以包括光透射结构。利用这样的结构,用户能够通过终端主体的由显示单元151占据的区域看到位于终端主体的后侧的对象。根据其实施方式,移动终端100可以包括两个或更多显示单元。例如,多个显示单元可以分离地或者一体地布置在移动终端的一个表面上或者分别布置在移动终端的两个表面上。在显示单元151和触敏传感器(称为触摸传感器)具有夹层结构的实施方式中,该结构可以被称为触摸屏。显示单元151可以用作输入装置和输出装置。触摸传感器可以实施为触摸膜、触摸片、触摸板等等。触摸传感器可以被构造为将施加到显示单元151的特定部分的压力的变化或者显示单元151的特定部分发生的电容的变化转换为电输入信号。而且触摸传感器可以被构造为不仅感测触摸位置和触摸面积而且感测触摸压力。当触摸传感器感测到触摸输入时,对应的信号被发送给触摸控制器(未示出)。触摸控制器对接收到的信号进行处理,并且然后将对应的数据发送给控制器180。因此,控制器180可以感测显示单元151的哪个区域已经被触摸。参考图1,接近传感器141可以被布置在由触摸屏幕覆盖的移动终端100的内区域处,或者布置在触摸屏幕附近。接近传感器可以在没有机械接触的情况下通过使用电磁场或红外线感测接近待感测的表面的对象或者放置在待感测的表面附近的对象的有无。与接触传感器相比,接近传感器具有更长的寿命和更强的用处。接近传感器141可以包括光学透射类型光电传感器、直接反射类型光电传感器、镜反射类型光电传感器、高频振荡接近传感器、电容类型接近传感器、磁类型接近传感器、红外线接近传感器等等。当触摸屏被实施为电容类型时,通过电磁场的变化来感测指示器到触摸屏的接近。在该情况下,触摸屏(触摸传感器)可以被分类为接近传感器。而且,显示单元151可以被构造为显示立体图像的立体显示单元152。这里,立体图像可以是三维(3D)立体图像,并且3D立体图像是指使得观看者感觉监视器或屏幕上的对象的渐变深度和真实性与真实空间相同的图像。通过使用双眼视差实施3D立体图像。双眼视差是指由两眼的位置导致的视差。当两只眼睛观看不同的2D图像时,图像通过视网膜传输到大脑并且在大脑中组合以提供深度感觉和真实性感觉。立体显示单元152可以采用立体显示方案,例如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投射方案(全息方案)等等。通用于家用电视接收器等等的立体方案包括惠斯登立体方案等等。自动立体方案包括例如视差屏障方案、柱状透镜方案、一体成像方案等等。投射方案包括反射全息方案、透射全息方案等等。一般来说,3D立体图像由左眼图像和右眼图像构成。而且,关于3D缩略图图像,分别由原始图像帧的左眼图像和右眼图像生成左眼图像缩略图和右眼图像缩略图,并且然后进行组合以生成单个3D缩略图图像。一般来说,缩略图是指缩小的图像或缩小的静态图像。因而生成的左眼图像缩略图和右眼图像缩略图显示为彼此之间的水平距离差是对应于屏幕上的左眼图像和右眼图像之间的视差的深度,从而提供立体空间感觉。如所示的,实施3D立体图像所需的左眼图像和右眼图像由立体处理单元152a显示在立体显示单元152上。立体处理单元可以接收3D图像并且提取左眼图像和右眼图像,或者可以接收2D图像并且将其改变为左眼图像和右眼图像。当触摸传感器以层的形式叠加在立体显示单元152上时,或者当立体显示单元和感测触摸操作的3D传感器组合时,立体显示单元152还可以用作3D输入装置。作为3D传感器的示例,感测单元140可以包括接近传感器141、立体触摸感测单元142、超声感测单元143和相机感测单元144。接近传感器141在没有机械接触的情况下通过使用电磁力或者红外线检测施加触摸的感测对象(例如,用户的手指或触摸笔)与检测表面之间的距离。通过使用该距离,终端识别出已经触摸了立体图像的哪个部分。特别地,当触摸屏幕是静电触摸屏幕时,基于电场根据感测对象的接近的改变检测感测对象的接近程度,并且通过使用接近程度识别出对于3D图像的触摸。立体触摸感测单元142被构造为检测施加到触摸屏幕的触摸的强度和持续时间。例如,立体触摸感测单元142可以感测触摸压力。当压力很强时,可以将触摸识别为关于远离触摸屏幕的对象朝向终端的内部的触摸。超声感测单元143被构造为通过使用超声波识别感测对象的位置信息。超声感测单元143可以包括例如光学传感器121和多个超声传感器。光学传感器被构造为感测光。例如,光可以是紫外射线,并且光学传感器可以是红外端口(红外线数据协会(IRDA))。超声传感器可以被构造为感测超声波。多个超声传感器被布置为彼此隔开,并且因此,多个超声传感器具有感测从同一位置或相邻位置生成的超声波的时间差。相机感测单元144包括相机、光电传感器和激光传感器中的至少一种。例如,相机和激光传感器可以组合以检测感测对象对于3D立体图像的触摸。当由激光传感器检测到的距离信息被添加到由相机捕获的2D图像时,能够获得3D信息。在另一示例中,光电传感器可以层叠在显示装置上。光电传感器被构造为扫描接近触摸屏幕的感测对象的移动。详细地,光电传感器包括位于行和列的光电二极管和晶体管以通过使用根据施加的光的量而改变的电信号来扫描安装在光电传感器上的内容。即,光电传感器根据光的变化计算感测对象的坐标以因此获得感测对象的位置信息。音频输出模块153可以将在呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等中从无线通信单元110接收的或者在存储器160中存储的音频数据转换并且输出为声音。而且,音频输出模块153可以提供与由移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块153可以包括扬声器、蜂鸣器或其它声音生成装置。警报单元154输出信号以将事件的发生通知给移动终端100。移动终端中生成的事件可以包括呼叫信号接收、消息接收、键信号输入、触摸输入等等。除了音频或视频信号之外,警报单元154可以以不同的方式输出信号,例如以便于通知事件的发生。也可以经由音频输出模块153输出视频或视频信号,因此显示单元151和音频输出模块153可以被分类为警报单元154的部件。触觉模块155生成用户可以感觉到的各种触觉效果。由触觉模块155生成的触觉效果的典型示例是振动。可以控制触觉模块155的强度和方式。例如,可以组合地输出或顺序地输出不同的振动。除了振动之外,触觉模块155可以产生各种其它触觉效果,例如通过诸如相对于接触皮肤垂直移动的针布置、通过气孔或吸气开口的空气的喷力或吸力、皮肤上的接触、电极的接触、静电力等等的刺激的效果、通过使用能够吸收或生成热的元件再现冷和热的感觉的效果。触觉模块155可以实施为允许用户通过诸如用户的手指或手臂的肌肉感觉以及通过直接接触传递触觉感觉来感觉触觉效果。可以根据移动终端100的构造提供两个或更多触觉模块155。存储器160可以存储用于由控制器180执行的处理和控制操作的软件程序,或者可以暂时地存储输入或输出的数据(例如,电话簿、消息、静态图像、视频等等)。此外,存储器160可以存储关于当触摸输入到触摸屏时输出的各种方式的振动和音频信号的数据。存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体微型、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电气可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘和光盘。而且,移动终端100可以与通过互联网执行存储器160的存储功能的网络存储装置协作。接口单元170用作相对于与移动终端100连接的各个外部装置的接口。例如,外部装置可以将数据发送到外部装置,接收电力并且将电力发送给移动终端100的每个元件,或者将移动终端100的内部数据发送到外部装置。例如,接口单元170可以包括有线或无线头戴式耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证使用移动终端100的权利的各种信息并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、通用订户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为“识别装置”)可以采取智能卡的形式。因此,识别装置可以经由端口与终端100连接。当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许用户从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。控制器180可以包括用于再现多媒体数据的多媒体模块181。多媒体模块181可以构造在控制器180内或者可以构造为与控制器180分离。控制器180可以执行模式识别处理以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施。在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施。软件代码可以存储在存储器160中并且由控制器180执行。现在将描述处理用户对于移动终端的输入的方法。用于输入单元130用于接收用于控制移动终端100的操作的命令并且可以包括多个操作单元。操作单元可以一般地为操作部分,并且能够采用各种方法和技术用于操作部分,只要它们能够由用户以触觉的方式来操作。各种类型的视觉信息可以显示在显示单元151上。信息可以显示为字符、数字、符号、图形、图标等等的形式,或者可以被构造为3D立体图像。为了输入这样的信息,字符、数字、符号、图形和图标中的至少一种显示在特定阵列中以实施为键盘的形式。这样的键盘可以是所谓的“软键”。显示单元151可以作为整个区域来操作或者可以分为多个区域并且相应地进行操作。在后一种情况下,多个区域可以彼此关联地进行操作。例如,输出窗口和输入窗口可以分别显示在显示单元151的上部和下部。输出窗口和输入窗口是被分配用于分别输出或输入信息的区域。包括用于输入电话号码等等的数字的软键被输出到输入窗口。当触摸软键时,对应于被触摸的软键的数字等等被显示在输出窗口上。当操作第一操作单元时,尝试关于显示在输出窗口上的电话号码的通话连接,或者可以将显示在输出窗口上的文本输入到应用程序。显示单元151或触摸板可以被构造为接收通过滚动的触摸。用户可以通过滚动显示单元151或触摸板来移动位于显示在显示单元151上的实体(例如,图标等等)上的光标或指示器。另外,当用户在显示单元151或触摸板上移动其手指时,用户的手指所移动的路径可以视觉地显示在显示单元151上。这将在编辑显示在显示单元151上的图像时是很有用的。可以在显示单元151(触摸屏幕)和触摸板被在特定时间范围内一起触摸的情况下执行终端的一个功能。这两个触摸可以是利用用户的拇指和食指夹持终端主体。所述一个功能可以是例如显示单元151或触摸板的激活或去激活。下面,将详细描述用于准确地识别对于移动终端100上的立体图像的触摸输入的机制。图2A是根据本发明的实施方式的移动终端的前透视图。图2B是图2A中所示的移动终端的后透视图。所公开的移动终端200具有直板类型的终端主体。然而,本发明不限于此,并且可应用于其中两个或更多主体组合为可相对地移动的滑动型移动终端、折叠型移动终端、摆动型移动终端、旋转类型的移动终端等等。主体包括构成外观的壳体(或外壳、盖等等)。在该实施方式中,壳体可以包括前壳体201和后壳体202。各种电子组件安装在前壳体201和后壳体202之间的空间中。一个或多个中间壳体可以额外地布置在前壳体201与后壳体202之间。壳体可以通过注入成型合成树脂来形成或者可以由诸如不锈钢(STS)或钛(Ti)等的金属材料制成。立体显示单元252、感测单元240、音频输出单元253、相机221、用户输入单元230/231、232、麦克风222、接口单元270等等可以被布置在终端主体(主要在前壳体201)上。立体显示单元252占据前壳体201的大部分表面。音频输出单元253和相机221布置在与立体显示单元252的两端部分中的一端部分相邻的区域,并且用户输入单元231和麦克风222布置在与另一端部分相邻的区域。用户输入单元232和接口单元270可以布置在前壳体201和后壳体202的侧面。用户输入单元230用于接收用于控制移动终端200的操作的命令并且可以包括多个操作单元231和232。操作单元231和232可以统称为操作部分,并且能够采用各种方法和技术用于操作部分,只要它们能够由用户以触觉方式来操作。由第一操作单元231和第二操作单元232输入的内容能够被设置为各种形式。例如,第一操作单元231可以接收诸如开始、结束、滚动等等的命令,并且第二操作单元232可以接收例如控制从音频输出单元152输出的声音的大小或者转换到显示单元151的触觉识别模式的命令。立体显示单元252可以与感测单元240一起形成立体触摸屏幕,并且立体触摸屏幕可以是用户输入单元230的示例。感测单元240(3D传感器)被构造为检测施加触摸的检测对象的3D位置。感测单元240可以包括相机221和激光传感器244。激光传感器244安装在终端主体上,扫描激光器并且检测反射的激光,从而检测终端主体与检测对象之间的距离。然而,本发明不限于此,并且感测单元240可以被构造为接近传感器、立体触摸感测单元、超声感测单元等等的形式。参考图2B,相机221’可以额外地布置在终端主体的后表面上(即,后壳体202上)。相机221’可以具有基本上与相机121(参见图2A)的图像捕获方向基本上相反的图像捕获方向,并且具有数目不同于相机221的像素。例如,相机221可以具有较少数目的像素以捕获用户的脸部图像并且将这样的图像发送到另一方,并且相机221’可以具有更大数目的像素以捕获通常的对象的图像并且在大多数情况下不对其进行发送。相机221和221’可以安装在终端主体上,使得它们能够旋转或者弹出。可以与相机221’相邻地额外地布置闪光灯223和镜224。当利用相机221’捕获对象的图像时,闪光灯223照亮对象。镜224允许用户在想要通过使用相机221’捕获其自己的图像(即,自拍)时看见他自己。音频输出单元可以额外地布置在终端主体的后表面上。音频输出模块可以与音频输出模块253(参见图2A)一起实施立体声功能,并且还可以用于实施用于通话通信的扬声器通话模式。用于将电力提供到移动终端200的电源单元290安装在终端主体上。电源单元290可以安装在终端主体内或者可以从终端主体的外部直接附接到主体或者从主体卸下。除了安装在终端主体上的用于通话等等的天线之外,可以额外地布置广播信号接收天线、蓝牙TM天线、卫星信号接收天线、用于接收无线互联网数据的天线等等。实施图2中所示的移动终端的机构安装在终端主体中。下面将参考图3描述可利用根据本公开的移动终端操作的通信系统。这样的通信系统利用不同的空中接口和/或物理层。由通信系统使用的这样的空中接口的示例包括频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信系统(UMTS)、UMTS的长期演进(LTE)、全球移动通信系统(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信系统,但是这样的教导同样适用于包括CDMA无线通信系统的其它类型的系统。现在参考图3,CDMA无线通信系统被示出为具有多个移动终端100、多个基站(BS)270、基站控制器(BSC)275和移动交换中心(MSC)280。MSC280被构造为与公共电话交换网络(PSTN)290形成接口。MSC280还被构造为与BSC275形成接口。BSC275经由回程线路耦接到基站270。回程线路可以根据若干已知的接口中的任一种来构造,所述接口包括例如E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL或xDSL。因此,如图3中所示,系统中可以包括多个BSC275。每个BS270可以包括一个或多个分区,每个分区具有放射状离开基站270的多向天线或指向特定方向的天线。或者,每个分区可以包括两个或更多不同的天线。每个基站270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz等等)。分区与频率分配的交叉可以被称为CDMA信道。基站270也可以被称为基站收发器子系统(BTS)。在一些情况下,术语“基站”可以用于笼统地表示BSC275和一个或多个BS270。基站也可以被称为“蜂窝站”。或者,特定基站270的各分区可以被称为多个蜂窝站。如图3中所示,广播发射器(BT)295将广播信号发送给在系统内操作的移动终端100。广播接收模块111(图1)通常被构造在终端100内以接收由BT295发送的广播信号。图3示出了几个全球定位系统(GPS)卫星300。这样的卫星300有利于定位多个终端100中的至少一个的位置。虽然在图2中示出了两个卫星,但是将理解的是,可以利用多于两个或少于两个的卫星来获得有用的位置信息。GPS模块115(图1)通常被构造为与卫星300合作以获得想要的位置信息。将了解的是,可以实施其它类型的位置检测技术(即,可以替代GPS定位技术或者在GPS定位技术之外使用的定位技术)。如果需要,则可以替代地或者额外地将GPS卫星300中的至少一个构造为提供卫星DMB传输。在无线通信系统的典型操作中,基站270接收来自各种移动终端10的反向链路信号集。移动终端100参与通话、消息收发并且执行其它通信。特定基站270接收的每个反向链路信号被在基站270内进行处理。获得的数据被转发给相关的BSC275。BSC提供通话资源分配和包括基站270之间的软切换过程的协调的移动管理功能。BSC275还将接收到的数据路由到MSC280,其提供用于与PSTN290形成接口的额外的路由服务。类似地,PSTN290与MSC280形成接口,MSC与BSC275形成接口,并且BSC275相应地控制基站270以将正向链路信号集发送到移动终端100。3D立体图像通常,3D立体图像(下面称为“3D图像”)是指使得观看者感觉监视器或屏幕上的对象的渐变深度和真实性与真实空间相同的图像。通过使用双眼视差实施3D立体图像。双眼视差是指由彼此分离的两眼的位置导致的视差。当两只眼睛观看不同的2D图像时,图像通过视网膜传输到大脑并且在大脑中组合以提供深度感觉和真实性感觉。3D图像可以根据3D显示方案来显示,所述3D显示方案例如为立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投射方案(全息方案)等等。3D图像的生成和显示一般来说,3D立体图像由左眼图像和右眼图像构成。根据如何将左眼图像和右眼图像组合为3D立体图像,3D立体成像方法被划分为其中左眼图像和右眼图像被在帧中布置为上下的上下方法、其中左眼图像和右眼图像被在帧中布置为左右的L-R(左右、并排)方法、其中左眼图像和右眼图像的一部分被布置为倾斜形式的棋格板方法、其中左眼图像和右眼图像被交替地按照列和行进行布置的交错方法以及其中左眼图像和右眼图像被交替地按时间显示的时间顺序(或逐帧)方法。生成的具有深度感觉3D图像被显示在显示单元151上。3D图像的深度3D图像的深度(或深度值)是指表示图像内的对象之间的3D距离差的指标。深度被定义为256级(最大值为255),并且深度的值越高,其表示越靠近用户。具体地,当用户观看显示单元151上的对象时,如果以2D形式观看对象,则对象的3D深度值为“0”。然而,如果以3D形式观看对象,例如,当对象表现为在显示单元151的基础上突出到移动终端100外部时,对象的3D深度具有负值。而且,当对象表现为凹陷到移动终端100内时,对象的3D深度具有正值。即,当用户观看突出到移动终端100外部的3D图像中包括的对象时,较短距离内观看到的对象具有由负值表示的3D深度值的较大的绝对值。下面,为了说明的方便起见,当用户观看在显示单元151的基础上突出到移动终端100外部的形式的3D图像中包括的对象时,在较短的距离内观看到的对象可以表示为“具有较大的3D深度值”,并且在较长距离处观看到的对象可以表示为“具有较小的3D深度值”。这对于本领域技术人员来说将是显而易见的。一般来说,3D图像是立体图像。因此,用户即使从具有相同深度的图像感觉到的疲劳也可能根据环境(特别是环境亮度)以及每个用户的视力而不同。本公开提出了一种通过根据通过利用光学传感器测量外部光的量而感测到的环境亮度自动地调整屏幕(显示)亮度和3D图像的深度来改进3D图像的可视性并且为用户提供观看方便性的方法。为此,本公开可以通过根据环境亮度基于之前存储的控制值控制背光的亮度来调整屏幕(显示)亮度,并且可以以根据环境亮度移动视差栅栏(使用移动的视差栅栏)或者调整3D模式中的电压的方式控制柱状透镜的折射率来调整3D图像的亮度和深度。而且,本公开提出了一种使用环境亮度在运行部分3D模式时以自动或选择性方式控制从2D图像中选择的至少一个对象的深度和亮度以及背景亮度,其中,在所述部分3D模式中,仅从2D图像中选择特定对象并且将其显示为3D形式。控制值是在与环境亮度匹配的状态下预先存储在存储器的信息表中的值。控制值可以包括用于完全3D模式中的整个3D图像的深度和屏幕亮度的值,并且包括用于部分3D模式中的屏幕亮度、所选择的3D对象的深度和亮度和背景亮度的值。本公开还提出了一种当2D图像转换为3D图像时根据与对象相关的属性信息(饱和度、亮度和颜色)以自动或选择性的方式控制对象的深度和屏幕亮度的方法。从2D模式到3D模式的转换在本公开中,从2D模式到3D模式的转换以及转换时的深度调整可以通过移动(或可切换的)视差栅栏模式和主动柱状透镜模式来实施。图4是示出移动视差栅栏类型的3D模式的示例性视图。如图4中所示,移动视差栅栏模式是通过在显示器的前端安装栅栏而在左眼与右眼之间产生视差的模式。栅栏被安装为与图像相同的周期(间隔)。作为栅栏之间的开口部分的缝隙被设置为具有作为图像的一个竖直线的视角。在预置距离处面对结构时,左眼图像进入左眼并且右眼图像进入右眼同时阻挡另一眼的图像。在图4中,从2D模式到3D模式的转换可以实施为栅栏被切换为开启或关闭。即,如图4的左侧中所示,当视差栅栏被切换为关闭时,视差栅栏变为透明以作为2D模式来操作。当视差栅栏被切换为开启时,视差栅栏在左眼与右眼之间产生视差以产生深度感觉,从而作为3D模式来操作。因此,本公开可以通过根据外部光的量移动栅栏来控制3D图像的深度。图5是主动柱状透镜类型的3D模式的示例性视图。如图5中所示,主动柱状透镜模式是下述模式:半柱形透镜(而不是栅栏)的布置片覆盖在屏幕上,并且使用透镜的折射率将图像发送到左眼与右眼中的每一个。可以通过将电压施加到半柱形透明透镜中填充的液晶分子来改变折射率,从而实施根据柱状透镜模式的从2D模式到3D模式的转换。即,在没有施加电压(即,0V)的状态的3D模式中,在液晶分子与外部复制件(replica)之间产生折射率差,从而光透射通过柱状透镜。另外,在施加有电压的状态的2D模式中,液晶状态改变为具有与外部复制件相同的折射率,以将输入光透射通过透镜。因此,本公开可以通过根据外部光量控制电压的强度来控制3D图像的深度感觉。图6是示出根据第一示例性实施方式的移动终端的3D图像控制方法的流程图,其示出了根据环境亮度自动调整屏幕亮度和3D图像的深度。如图6中所示,用户可以使用模式转换菜单、图标或预置键输入来将移动终端的模式从2D模式转换为3D模式(S10)。当检测到用户的3D模式转换输入时,控制器180可以根据3D图像显示方法(可切换(移动)视差栅栏方法或者主动柱状透镜方法)在显示单元151上显示3D图像(S11)。当显示3D图像时,控制器180可以根据与对象相关的属性信息(饱和度、亮度和颜色)控制对象的深度和屏幕亮度(将在下面进行说明),并且然后驱动布置在感测单元140中的光学传感器(未示出)以通过测量移动终端附近的光量来测量环境亮度(S12)。当测量环境亮度时,控制器180可以从存储在存储器160中的信息表(未示出)中搜索与对应的环境亮度级别对应地存储的3D图像的深度的控制值和背光的强度(S13)。因此,控制器180可以通过控制背光以具有搜索到的强度,并且基于搜索到的深度控制值控制3D图像的深度来调整屏幕亮度。即,当通过移动视差栅栏方法实施3D模式时,如图4中所示,控制器180可以控制背光以具有搜索到的强度,并且通过移动视差栅栏来调整3D图像的深度以对应于搜索到的深度控制值。相反地,当通过主动柱状透镜方法实施3D模式时,如图5中所示,控制器180可以控制背光以具有搜索到的强度,并且通过基于搜索到的深度控制值改变施加到柱状透镜的电压来调整3D图像的深度。存储在存储器160中的信息表可以存储针对每个环境亮度级别的最佳背光强度和最佳深度值。控制对应于其中整个图像显示为3D形式的完全3D模式。如果运行部分3D模式,则控制器180可以控制屏幕亮度并且之后根据环境亮度调整由用户选择的至少一个3D对象的深度和亮度以及屏幕亮度。即,控制器180可以将测量的环境亮度、每个对象的深度和屏幕亮度与预置参考值进行比较。当根据比较,每个对象具有均匀的深度时(即,当每个对象显示为2D形式时),控制器180可以根据测量的环境亮度调整对象的亮度和背景的亮度。当测量的环境亮度(亮度值)持续属于平均值范围时,控制器180可以根据测量的环境亮度调整3D对象的亮度和深度以及背景的亮度。当屏幕(显示)亮度均匀时,控制器180可以根据测量的环境亮度调整3D对象的深度和背景的亮度。图7是示出通常的3D图像的深度的示例性视图。如图7中所示,当用户通过显示单元151观看特定对象(笑脸)时,“0”的深度值表示对象的2D显示模式。然而,当对象的深度具有负或正值时,其表示移动终端运行在3D模式中。这里,具有负(-)值的深度表示对象显示为突出到屏幕的前面(在显示单元的基础上)的状态,并且具有正(+)值的深度表示对象显示为缩回屏幕中的状态。这些状态由根据左眼和右眼之间的距离的左眼(L)和右眼(R)之间的视差产生。图8是示出根据由光学传感器测量的环境亮度控制3D图像的深度的示例性视图。如图8中所示,当用户在晚上或在较暗的地方(例如,电影院)使用移动终端观看3D图像(例如,笑脸)时,控制器180可以通过激活光学传感器来测量环境亮度。这里,在较暗的地方(或者如果环境较暗),即使屏幕不太亮,用户也不会难以识别3D图像(即,具有高可视性)。然而,当在这样的环境中屏幕非常亮时,用户会感觉到更加疲劳。因此,控制器180可以根据对应于从存储器160中存储的信息表(未示出)中检查的对应的环境亮度级别的背光的强度和深度值控制背光和视差栅栏。这可以允许通过移动栅栏以改变栅栏角度来控制屏幕亮度并且还允许将3D图像的深度从-5减小到-2。因此,3D图像可以被调整为与调整之前的屏幕相比,表现为从暗屏幕更少地突出。与现有技术相比,这可以允许用户即使在晚上或较暗的地方长时间观看调整后的3D图像时也能够感受到更少的疲劳。当用户在白天或者在较明亮的地方使用移动终端观看3D图像时,控制器180可以与前述操作相反地控制背光和视差栅栏。即,当外部光较强时,用户会不容易看到当前显示在屏幕上的3D图像(即,低可视性)并且感觉的深度较小。这里,控制器180可以从信息表中搜索对应于测量的环境亮度级别的背光强度控制值和深度控制值,以控制背光强度和深度增加,从而改进3D图像的用户可视性。换言之,由于当环境较暗时可视性较高,因此可以通过关注深度来控制屏幕亮度。而且,当环境较亮时,由于低可视性引起问题,因此可以朝向增加可视性的方向来调整屏幕亮度和深度。同时,例如在白天或晚上环境亮度不是很强时,在用户对于3D图像的可视性方面不会产生任何问题。用户在24小时的大部分时间内不会在观看3D图像时感觉到不方便。因此,如果用户能够根据环境亮度的级别选择性地执行屏幕亮度和深度的控制,则可以减少不必要的控制操作。图9是示出根据第二示例性实施方式的移动终端的3D图像控制方法的流程图。特别地,第二示例性实施方式示出了根据环境亮度选择性地控制3D图像的深度和屏幕亮度。当在显示单元151上输出(或再现)特定图像时用户选择位于移动终端的一侧或屏幕上的模式转换键或按钮时,控制器180可以在显示单元151上显示3D图像(S20)。这里,用户可以选择完全3D模式或者部分3D模式。当显示3D图像时,控制器180可以检查用户设置以确认是否已经设置了“3D图像自动调整”菜单。“3D图像自动调整”菜单是当用户想要根据环境亮度预先自动调整3D图像的深度和屏幕亮度时设置的菜单。当3D图像自动调整菜单处于“启用”状态时,控制器180可以激活光学传感器以感测移动终端周围的光的量以测量环境亮度(S21)。之后,控制器180可以执行比较以检查测量的环境亮度是否对应于第一参考值与第二参考值之间的平均值(S22)。平均值是用户通常处于操作中的白天时的亮度值。第一参考值是在晚上或在较暗的地方测量的亮度值,并且第二参考值是在阳光直接照射的户外或者光线很强的空间中测量的亮度值。当根据比较结果检查发现移动终端的当前环境亮度属于大于第一参考值并且小于第二参考值的平均值(或者平均值范围)时,控制器180可以从信息表中搜索对应于对应的环境亮度的深度值并且仅控制3D图像的深度(S23)。而且,在部分3D模式中,当环境亮度(亮度值)属于平均值范围时,控制器180可以从信息表中搜索对应于环境亮度的特定3D对象的亮度和深度值以及背景亮度,从而基于搜索到的值调整3D对象的亮度和深度以及背景亮度。相反地,当移动终端的当前环境亮度级别小于第一参考值和大于第二参考值(即,处于平均值范围之外)时,控制器180可以从信息表中搜索对应于环境亮度的背光强度控制值和深度控制值,从而调整背光强度和3D图像的深度,如图8中所示(S24)。在部分3D模式中,当对象具有均匀深度值(即,2D)时,控制器180可以根据环境亮度(亮度值)调整对象的亮度和背景亮度。当屏幕(显示)亮度均匀时,控制器可以根据环境亮度调整对象的深度和背景亮度。因此,可以根据环境亮度选择性地控制3D图像的深度和屏幕亮度,从而减少了由于将背光控制为具有高强度导致的电池的不必要的功耗。如前所述,当3D图像显示在显示单元上时,用户具有不同的物理条件(例如,视力)。因此,每个用户在观看3D图像时不同地感觉到疲劳。因此,即使自动地调整了3D图像的深度和屏幕亮度,一些用户也仍然会从调整后的3D图像感觉到疲劳。因此,本公开提供了一种深度调整组件,例如,3D调整指示器,其允许用户直接控制适合于他或她的眼睛的屏幕亮度和深度感觉。至少一个3D调整指示器可以显示为3D图标或者3D条的形式,并且位于不遮挡3D图像的下部或侧部。图10A和图10B是示出允许用户调整3D图像的深度的D可调整UI的示例性视图。图10A示出了使用位于显示单元或屏幕的左下部的3D图标50调整3D图像的深度的示例,并且图10B示出了使用显示在显示单元或屏幕的左上部的3D条51调整3D图像的深度的示例。在图10A中,当用户触摸3D图标50并且向上拖拽时,控制器180可以增加对应的3D图标50的大小并且逐渐地增加3D图像的深度(即,负深度值)。这里,控制器180可以根据深度的增加来控制背光,从而提供最佳的屏幕亮度。之后,当用户在直接利用其眼睛检查3D图像的深度时在特定位置停止拖拽3D图标时,控制器180可以保持对应于该特定位置的深度和屏幕亮度。作为另一示例,用户反复地触摸位于初始位置的3D图标50而不拖拽该3D图标50,并且因此,控制器180可以根据触摸3D图标50的次数改变3D图像的深度和屏幕亮度。而且,如图10B中所示,用户可以滚动3D条51以直接调整最佳的屏幕亮度和3D图像的深度。当用户滚动3D条51时,控制器180可以以与图10A中所示的方法类似的方法控制3D图像的深度和适合于该深度的屏幕亮度。并且,当3D条的滚动停止在特定位置时,控制器180可以保持对应于该特定位置的深度和屏幕亮度。在该状态下,用户可以反复地触摸对应的位置从而以手动的方式额外地控制屏幕亮度。当3D图像自动调整菜单被设置为“启用”时,图10A和图10B可以与第一和第二示例性实施方式一起应用。图11是示出根据第三示例性实施方式的移动终端的3D图像控制方法的流程图,其示出了根据用户输入额外地控制3D图像的深度和屏幕亮度。当通过执行与图6和图9中所示的操作相同的操作来自动地调整3D图像的深度和屏幕亮度(S30至S34)时,控制器180可以通过使用3D调整指示器在屏幕的一侧显示3D图像的深度已经被调整了多少(S35),如图10A或图10B中所示。这里,一个或两个3D调整指示器可以显示为条或图标的形式。用户可以通过检查显示的3D调整指示器来识别深度的当前调整级别,并且使用3D调整指示器进一步调整3D图像的深度和屏幕亮度(S36)。作为一个示例,当显示一个3D调整指示器时,用户可以通过移动3D调整指示器来调整3D图像的深度并且然后通过从当触摸3D调整指示器时出现的值中选择特定值来调整屏幕亮度。作为另一示例,本公开可以实施为通过触摸3D调整指示器并且将其向下移动来调整深度感觉,并且通过触摸3D调整指示器并且将其向上移动来调整屏幕亮度。而且,当显示两个3D调整指示器时(即,当用于分别调整深度感觉和屏幕亮度的两个指示器显示在竖直方向上或者分别显示在水平和竖直方向上时),用户可以通过分别移动对应的指示器来调整深度和屏幕亮度。对于本公开,为了简要描述起见,已经示例性地示出了屏幕亮度,但是本公开不限于此。例如,除了屏幕亮度之外,最优屏幕亮度和3D图像的最优深度可以根据3D图像的大小(变化)、移动终端的屏幕变化(横屏模式或者竖屏模式)以对应的状态存储在信息表(或映射表)中。这可以允许基于对应的信息自动地调整屏幕亮度和深度。图12是示出根据第四示例性实施方式的移动终端的3D图像控制方法的流程图,其示出了在从2D模式转换为3D模式时对深度的控制。当在显示单元151上显示2D图像时感测到施加在2D图像上的触摸输入时,控制器180可以将2D图像转换为3D图像(S110,S120)。这里,控制器180可以允许2D图像中包括的多个对象根据多个对象中的每一个对象的大小、亮度和饱和度不同地显示为近或远,从而在多个对象之间相互叠加,或者进行其它的显示方式。控制器180可以基于2D图像中包括的每个对象的颜色与背景颜色之间的补色对比将2D图像转换为3D图像。例如,当背景颜色与特定对象的颜色互补时,控制器180可以增加对象的3D深度值,从而对象能够在转换为3D图像时更显著。而且,当2D图像的背景包括各种颜色时,控制器180可以在转换为3D图像时减少3D深度值以增强用户的可视性。当2D图像内的多个对象叠加时,控制器180可以通过将多个对象识别为一个对象来将2D图像转换为3D图像。而且,当2D图像包括超过特定数目的对象时,控制器180可以基于与对象关联的大小顺序、亮度或生动性顺序等等仅将预置数目的对象转换为3D形式。当2D图像转换为3D图像时,控制器180可以基于3D图像中包括的每个对象的3D深度值来改变每个对象的特性(S130)。每个对象的特性(属性信息)可以包括每个对象的形状、大小和颜色中的至少一个。详细地,控制器180可以基于3D对象中包括的每个对象的3D深度值改变与每个对象的颜色相关的属性信息。颜色属性信息可以包括颜色值、亮度值和饱和度值中的至少一个。更具体地,控制器180可以使用3D图像中包括的每个对象的3D深度值计算对象的平均3D深度值。之后,控制器180可以基于每个对象的3D深度值与平均3D深度值之间的差改变每个对象的颜色。例如,在表现为在显示单元151的基础上突出到移动终端100的外部的3D图像中,控制器180可以改变与具有大于平均3D深度值的3D深度值的对象(即,在较短范围内观看到的对象)的颜色相关的属性信息,从而对应的对象能够具有增加得更多的亮度值和饱和度值。类似地,控制器180可以改变与具有小于平均3D深度值的3D深度值的对象(即,在远处看到的对象)的颜色相关的属性信息,从而对应的对象能够具有减少得更多的亮度值和饱和度值。控制器180可以在显示单元151上显示包括特性改变后的对象的3D图像(S140)。这可以允许在基于3D深度值改变了对象的形状、大小和颜色中的至少一种的情况下在显示单元151上显示对象。因此,当3D图像中包括的对象的特性改变时,每个对象可以单独地示出三维效果(立体空间感觉),这可以为用户提供更真实的内容。图13A至图13C是根据图12的示例性实施方式改变3D图像中包括的对象的特性的示例性视图。如图13A中所示,多个对象252至254可以包括在显示在显示单元251上的2D图像中。当感测到施加在2D图像上的触摸输入(如图13B中所示)时,控制器180可以基于与对象252至254中的每一个相关的特性信息将2D图像转换为3D图像。即,控制器180可以通过使得对象252至254中的每一个根据每个对象252至254的大小、亮度和饱和度不同地显示为更近或更远来将2D图像转换为3D图像。而且,控制器180可以基于3D图像中包括的每个对象252至254的3D深度值改变每个对象252至254的特性。即,控制器180可以改变与基于显示单元251而显示为更近的对象252的颜色相关的属性信息,从而对象252能够具有增加的亮度值或饱和度值。控制器180还可以改变与基于显示单元251显示为更远的对象254的颜色相关的属性信息,从而对象254能够具有减小的亮度值或饱和度值。因此,可以通过将对象252的颜色改变为更亮或更浅的值来在显示单元251上显示对象252,并且可以通过将对象254的颜色改变为更暗或更深的颜色来在显示单元251上显示对象254。虽然未示出,但是当由控制器180改变与对象253的颜色相关的属性信息时,对象253也可以在其颜色改变的状态下显示在显示单元251上。之后,当再次感测到施加在3D图像上的触摸输入时,控制器180可以将3D图像转换回2D图像。这里,控制器180可以通过在2D图像中包括其颜色属性信息已经改变的那些对象252至254来显示2D图像。因此,不同于图13A中所示的2D图像,可以在2D图像中包括的对象252至254中展示出锐度或颜色亮度的显著差异。图13C示出了在从2D图像转换为3D图像时基于与每个对象相关的特性信息改变每个对象的大小的示例。如图13C中所示,当感测到施加在包括多个对象252至254的2D图像上的触摸输入时,控制器180可以基于关于对象252至254的特性信息来将2D图像转换为3D图像,并且基于包括在3D图像中的每个对象252至254的3D深度值来改变每个对象252至254的大小。即,控制器180可以改变与显示为更近的对象252相关的特性信息,从而该对象252能够具有增加的大小,并且改变与显示为较远的对象254相关的特性信息,从而该对象254能够具有减小的大小。因此,对象252可以在其大小增加的状态下显示在显示单元251上,并且对象254可以在其大小减小的状态下显示在显示单元251上。虽然未示出,但是当控制器180改变与对象253相关的特性信息时,对象253也可以在其大小改变的状态下进行显示。同时,控制器180也可以基于每个对象252至254的3D深度值来改变其形状。图14是示出根据第五示例性实施方式的移动终端的3D图像控制方法的流程图。如图14中所示,当感测到施加在显示在显示单元151上的对象中的至少一个上的触摸输入时,控制器180可以将对应的对象分为多个区域(S210,S220)。详细地,对象可以显示为具有各种颜色。控制器180可以基于与对象中包括的颜色相关的属性信息将对象划分为多个区域。这里,颜色属性信息可以包括颜色值、亮度值和饱和度值中的至少一种。之后,控制器180可以基于与多个区域中的每一个区域相关的颜色属性信息改变每个区域的3D深度值(S230)。详细地,控制器180可以基于多个区域中的每一个区域的颜色、亮度、饱和度等等通过允许各个区域不同地显示为较近或较远来改变一个对象中包括的多个区域中的每一个区域的3D深度值。因此,控制器180可以在显示单元151上显示包括均具有改变后的3D深度值的多个区域的对象(S240)。虽然未示出,但是控制器180可以基于显示单元151上显示的对象的数目来调整对象的3D深度值。即,在显示为在显示单元151的基础上突出到移动终端100外部的3D图像中,当3D图像中包括很多对象时,控制器180可以将对象的3D深度值改变为较小的3D深度值,从而对象能够显示为更远。而且,当3D图像中包括较少对象时,控制器180可以将对象的3D深度值改变为更大的3D深度值,从而对象能够显示为较近。虽然未示出,但是当仅将2D图像中包括的对象中的一些转换为3D形式时,可以允许对应的对象具有比将每个对象转换为3D形式的情况更大的3D深度值。如前所述,本公开可以改变一个对象中包括的多个区域中的每一个区域的3D深度值以在显示单元151上进行显示,这可以允许用户从一个对象看到3D立体效果。图15A和图15B是根据图14的示例性实施方式改变3D图像中包括的每个对象的深度的示例性视图。如图15A中所示,显示单元251上显示的2D图像可以包括多个对象255、256。当感测到施加在对象255上的触摸输入时(如图15B中所示),控制器180可以基于与对象255、256相关的特性信息将2D图像转换为3D图像。控制器180可以基于与3D图像中包括的对象255的颜色相关的属性信息将对象255划分为多个区域255a、255b。这里,控制器180可以基于与每个区域255a、255b的颜色相关的属性信息改变区域255a和255b中的每一个区域的3D深度值。例如,控制器180可以改变具有高亮度和饱和度的区域255a的3D深度值,从而区域255a能够显示为比区域255b更近。而且,控制器180可以改变具有低亮度和饱和度的区域255b的3D深度值,从而区域255b能够显示为比区域255a更远。图16是示出根据第六示例性实施方式的移动终端的3D图像控制方法的流程图。如图16中所示,当感测到施加在3D图像中包括的对象中的至少一个上的触摸输入时,控制器180可以检测触摸施加级别(或触摸级别)(S310,S320)。详细地,在感测到施加到3D图像中包括的对象中的至少一个上的触摸输入时,控制器180可以检测关于对象的触摸施加级别。控制器180可以通过检测触摸操作中的改变和从施加在对象上的触摸输入的开始时间到离开对象的释放时间的保持时间中的至少一个来确定触摸施加级别。这里,触摸施加级别可以是触摸持续时间、触摸次数、拖拽长度等等。在感测到多个触摸输入时,触摸施加级别可以是第一触摸点与第二触摸点之间的距离值。之后,控制器180可以基于触摸施加级别改变对象的3D深度值,并且在显示单元上进行显示(S330,S340)。即,控制器180可以基于触摸施加级别计算将要改变的3D深度值,基于计算结果改变对象的3D深度值,并且在显示单元151上显示具有改变后的3D深度值的对象。因此,本公开可以基于触摸输入调整3D图像中包括的对象的3D深度值,这允许用户通过将立体效果调整为适合于观看角度和观看环境来更立体地观看3D图像。图17A和图17B和图18A和图18B是根据图16的示例性实施方式改变3D图像中包括的每个对象的深度的示例性视图。如图17A中所示,显示单元251上显示的3D图像可以包括多个对象257、258。感测单元140可以感测感测目标的2D位置,例如与移动终端200平行的表面上的感测目标的位置。而且,感测单元140可以感测感测目标的3D位置,例如,甚至包括移动终端200的垂直距离的位置。因此,感测单元140可以感测对于对象257的触摸输入,并且控制器180可以执行对应于感测到的触摸输入的操作。当用户在第一方向(例如,从上到下)拖拽对象257时,控制器180可以将其识别为用于改变对象257的3D深度值的控制命令。虽然附图示出了将拖拽手势感测为对于第一对象257的触摸输入,但是施加在第一对象257上的触摸输入的类型可以不限于拖拽手势。例如,当感测到单击手势、双击手势、轻弹手势、缩进或放大手势等等时,控制器180也可以将其识别为用于改变第一对象257的3D深度值的控制命令。当感测到用于改变对象257的3D深度值的控制命令时,如图17B中所示,控制器180可以响应于对应的控制命令改变对象257的3D深度值。即,控制器180可以改变对象257的3D深度值,从而对象257能够显示为较近。相反地,如图18A中所示,当用户在第二方向(例如,从下到上)拖拽对象257时,控制器180可以将其识别为用于改变对象257的3D深度值的控制命令。之后,控制器180可以响应于控制命令改变对象257的3D深度值,如图18B中所示。例如,控制器180可以改变对象257的3D深度值,从而对象257能够显示为较远。如上所述,本公开可以根据移动终端的环境亮度以自动或选择性的方式调整屏幕亮度和3D图像的深度,从而改进用户的可视性并且减少用户的疲劳。而且,本公开可以进一步根据3D图像中包括的对象的特性为每个对象提供不同的深度,从而允许用户观看到更真实的内容。另外,可以基于触摸输入改变3D图像中包括的对象的3D深度值,从而允许用户借助于适合于用户的可视性和观看环境的立体效果的调整而更立体地观看3D图像。此外,根据本公开的一个实施方式,方法能够实施为程序记录介质中的计算机可读代码。处理器可读介质可以包括均存储能够由计算机系统读取的数据的所有类型的记录装置。这样的计算可读取介质的示例可以包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储元件等等。而且,计算机可读介质还可以实施为载波形式(例如,经由互联网的传输)。计算机可以包括移动终端的控制器180。根据本公开的实施方式的移动终端不限于其构造和方法的应用,而是实施方式的整体或一部分能够选择性地进行组合以构造为各种修改。虽然在不偏离其特征的情况下可以以若干形式实施示例性实施方式,但是也应理解的是,上述实施方式不受到前述描述的细节的限制,除非另有所述,但是应该在如所附权利要求中定义的范围内宽泛地构造。因此,落入权利要求的范围或这样的范围的等价物内的各种改变和修改意在由所附权利要求涵盖。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1