Android使用Sensor感应器获取用户移动方向(指南针原理)
本文实例讲述了android使用sensor感应器获取用户移动方向的方法。分享给大家供大家参考,具体如下:
今天继续给大家分享一下第二个重要的感应器,其实获取方向本应该很简单的事情,在前面文章中看到有个type_orientation 关键字,说明可以直接获取设备的移动方向,但是最新版的sdk加上了这么一句话“type_orientation this constant is deprecated. use sensormanager.getorientation() instead. ”也就是说,这种方式已经被取消,要开发者使用 sensormanager.getorientation()来获取原来的数据。
实际上,android获取方向是通过磁场感应器和加速度感应器共同获得的,至于具体的算法sdk已经封装好了。也就是说现在获取用户方向有两种方式,一是官方推荐的,通过sensormanager.getorientation()来获取,这个方法表面看似容易(那是因为你还没看到他的参数。。一会再说),但实际上需要用到两个感应器共同完成工作,特点是更加的准确。第二种方法非常简单,就像前一篇文章获取加速度一样,直接得到三个轴上的数据。
额,从难一些的介绍吧,因为毕竟第一种方法会是android未来的一个选择,第二种不知道什么时候就要成为历史了。
android给我们提供的方向数据是一个float型的数组,包含三个方向的值 如图
当你的手机水平放置时,被默认为静置状态,即xy角度均为0
values[0] 表示z轴的角度:方向角,我们平时判断的东西南北就是看这个数据的,经过我的实验,发现了一个有意思的事情,也就是说使用第一种方式获得方向(磁场+加速度)得到的数据范围是(-180~180),也就是说,0表示正北,90表示正东,180/-180表示正南,-90表示正西。而第二种方式(直接通过方向感应器)数据范围是(0~360)360/0表示正北,90表示正东,180表示正南,270表示正西。
values[1] 表示x轴的角度:俯仰角 即由静止状态开始,前后翻转
values[2] 表示y轴的角度:翻转角 即由静止状态开始,左右翻转
可见统一获取方向的方法是必须的,因为处理这些数据的算法可能针对第一种获取方式,那么当用在第二种方式时,移植性就不好了。
看下面的方法
public static float[] getorientation (float[] r, float[] values)
since: api level 3
computes the device's orientation based on the rotation matrix.
when it returns, the array values is filled with the result:
values[0]: azimuth, rotation around the z axis.
values[1]: pitch, rotation around the x axis.
values[2]: roll, rotation around the y axis.
the reference coordinate-system used is different from the world coordinate-system defined for the rotation matrix:
x is defined as the vector product y.z (it is tangential to the ground at the device's current location and roughly points west).
y is tangential to the ground at the device's current location and points towards the magnetic north pole.
z points towards the center of the earth and is perpendicular to the ground.
all three angles above are in radians and positive in the counter-clockwise direction.
通常我们并不需要获取这个函数的返回值,这个方法会根据参数r[]的数据填充values[]而后者就是我们想要的。
那么r表示什么呢?又将怎么获取呢?
r[] 是一个旋转矩阵,用来保存磁场和加速度的数据,大家可以理解未加工的方向数据吧
r通过下面的静态方法获取,这个方法也是用来填充r[]
public static boolean getrotationmatrix (float[] r, float[] i, float[] gravity, float[] geomagnetic)
解释以下参数:
第一个就是我们需要填充的r数组,大小是9
第二个是是一个转换矩阵,将磁场数据转换进实际的重力坐标中 一般默认情况下可以设置为null
第三个是一个大小为3的数组,表示从加速度感应器获取来的数据 在onsensorchanged中
第四个是一个大小为3的数组,表示从磁场感应器获取来的数据 在onsensorchanged中
好了基本逻辑就是这样的,下面给大家演示一个简单的测试方向的例子,可以时刻监听用户的方向
/* * @author octobershiner * 2011 07 28 * se.hit * 一个演示通过磁场和加速度两个感应器获取方向数据的例子 * */ package uni.sensor; import android.app.activity; import android.content.context; import android.hardware.sensor; import android.hardware.sensorevent; import android.hardware.sensoreventlistener; import android.hardware.sensormanager; import android.os.bundle; import android.util.log; public class orientationactivity extends activity{ private sensormanager sm; //需要两个sensor private sensor asensor; private sensor msensor; float[] accelerometervalues = new float[3]; float[] magneticfieldvalues = new float[3]; private static final string tag = "sensor"; @override public void oncreate(bundle savedinstancestate) { // todo auto-generated method stub super.oncreate(savedinstancestate); setcontentview(r.layout.main); sm = (sensormanager)getsystemservice(context.sensor_service); asensor = sm.getdefaultsensor(sensor.type_accelerometer); msensor = sm.getdefaultsensor(sensor.type_magnetic_field); sm.registerlistener(mylistener, asensor, sensormanager.sensor_delay_normal); sm.registerlistener(mylistener, msensor,sensormanager.sensor_delay_normal); //更新显示数据的方法 calculateorientation(); } //再次强调:注意activity暂停的时候释放 public void onpause(){ sm.unregisterlistener(mylistener); super.onpause(); } final sensoreventlistener mylistener = new sensoreventlistener() { public void onsensorchanged(sensorevent sensorevent) { if (sensorevent.sensor.gettype() == sensor.type_magnetic_field) magneticfieldvalues = sensorevent.values; if (sensorevent.sensor.gettype() == sensor.type_accelerometer) accelerometervalues = sensorevent.values; calculateorientation(); } public void onaccuracychanged(sensor sensor, int accuracy) {} }; private void calculateorientation() { float[] values = new float[3]; float[] r = new float[9]; sensormanager.getrotationmatrix(r, null, accelerometervalues, magneticfieldvalues); sensormanager.getorientation(r, values); // 要经过一次数据格式的转换,转换为度 values[0] = (float) math.todegrees(values[0]); log.i(tag, values[0]+""); //values[1] = (float) math.todegrees(values[1]); //values[2] = (float) math.todegrees(values[2]); if(values[0] >= -5 && values[0] < 5){ log.i(tag, "正北"); } else if(values[0] >= 5 && values[0] < 85){ log.i(tag, "东北"); } else if(values[0] >= 85 && values[0] <=95){ log.i(tag, "正东"); } else if(values[0] >= 95 && values[0] <175){ log.i(tag, "东南"); } else if((values[0] >= 175 && values[0] <= 180) || (values[0]) >= -180 && values[0] < -175){ log.i(tag, "正南"); } else if(values[0] >= -175 && values[0] <-95){ log.i(tag, "西南"); } else if(values[0] >= -95 && values[0] < -85){ log.i(tag, "正西"); } else if(values[0] >= -85 && values[0] <-5){ log.i(tag, "西北"); } } }
实训的时间非常紧张,抽时间写总结感觉很累,但是感觉收获很多,如果有时间的话,也想给大家分享第二种方法,和这种比起来简单很多,其实大家可以完全参考上篇文章中的代码《android基于sensor感应器获取重力感应加速度的方法》
只要把其中的两个sensor。type_accelerometer改成 sensor.type_orientatio就好了,但是今天分享的方法大家最好掌握,这应该是未来android的标准。
sensor感应器应该就先暂时介绍到这里吧,该看一下进程线程的东西了,其实hardware包中还有个非常重要的类,camera摄像头,相信大家也听过android扫描器,很强大。以后有时间和大家分享吧。
接下来的安排 应该是 线程 activity然后是geocode
话说我也没有个指导老师,一个人对着sdk研究这些,有些累阿~求高人指点。
希望本文所述对大家android程序设计有所帮助。