老刘:
看来你是绝对以太论者。 |
我从来没说过无法用实验证明,因此也不存在“既然无法通过实验证明”。光的多普勒效应就是一种证明。我提到的朝阳比夕阳明亮,就说明在地球表面上空的光速不一样,这是地球自转造成的。比如老刘你因此说地球不是惯性系,这不要紧,我们可以不让地球转,让地球总是以匀速在太阳参考系中运动,比如让观看者所在地面总平行于光源运动。迎着来光的方向看到的光,总比远离光源看到的光明亮。 |
我不是以太论者,我只是在分析用相对论应该如何解释才是最准确的。
GPS系统的工作原理,是假设ECI(地心惯性系)是局域惯性系,在ECI中光速是常数,以此为基础最后计算出坐标和时间4个参数。其精度不会出现周日变化吧?如果没有就是对你的假设的用力的否定。 不知王先生将如何辩解? |
老刘,不知怎的,总不知道你所云为何。别指望用相对论能解释出真实物理。 自然界中并不存在理想的惯性系,你能使用的都是局部惯性系,而且都是近似的,使用地心惯性系也不例外。周日变化没有了,还有周年变化。你即使使用日心惯性系,也依然还摆脱不了银河系转动带来的变化。你说“在ECI中光速是常数”,你并没有给出在多大范围内是常数。假如以地球地心和三颗恒星为基准方向确立了一个地心惯性系,我问你,地心是不是运动的?三颗恒星是不是运动的?根本不能保证从这三颗恒星上发向地球的一束激光能准确到达地球。真惯性系的一个基本要求是光速各向同性。从定位地心惯性系的三颗恒星上发向地球的光并不能准确到达地球,就说明地心惯性系并没有光速各向同性的性质。老你不能说在地球上观察到达地球的这三束激光没有光行差。 |
我提出的光的真多普勒效应和伪多普勒效应概念能解释M-M实验。和运动光源同步运动的镜子,入射光和反射光的频率不变。
不管地面上有没有完全被地面拖动的场物质,这个规律都不变。 你在家中面向西墙投掷乒乓球,假如你投掷速度是V,球撞击到墙上反射回来,不考虑碰撞损失,反射速度一定是-V。你在前进的列车上向通道门上投掷,不考虑损失,反射的球速也不变,即便投掷速度和反射速都叠加了列车速度。 |
此老刘和彼老刘(刘振永先生),假如你们能够掌握国家资源的话,不妨你们设立一个项目,把两个在一起校对好的原子钟分别低速运输到相距10公里或50公里或100公里的两个位置,比如两个等高度的山上,真实测量一下地表的单向光速。我已经给出了预料,低速移动这两个钟不会产生可观测到的误差。 |
光也如是,设想光是一系列亚光子组成的等间距粒子队列,撞上运动的反射镜,单位时间射进来多少粒子,单位时间也反射出多少粒子,镜面对它们不会有所保留。 |
如果地球自转周期和公转周期相等,就如同月球总一面面向地球一样,地球也总有一面面向太阳。这时也没有了赤道,半边地球总是黑暗的(实际上太阳直径大于地球直径,因此总是亮处的面积大于暗处的面积。),明暗交界的地方是一个圆,我把它叫“黑白道”(我就喜欢起土名字)。在黑白道位置,看到的太阳光基本上是切向的,就如同日出、日落时的情景。这时就不会出现朝阳明亮、夕阳昏暗的那种景象。 |
王先生只要承认GPS和北斗系统等,在正常运行而且有很高的定位精度就行了。
如果你的理论是正确的,GPS和北斗系统就不能正常运行,或者至少没有这么高的精度。 用你自己的理论是解释不了的。 |
老刘:
定位精度也都是通过闭环反馈修正出来的,不可能一个光信号打上去就定位了。地面上要有很多观测点,它们采得的数据要通过计算机处理,就能知道光速的非线性带来多大的误差,并会采用某些算法把它纠正回来。不可能按照定义的真空中光速直接把已知位置的卫星上的时刻一次性对准。 |
所以,即使三颗或多颗同步卫星的时刻完全同步,一点误差都没有,它们的时刻信号到达地面上某点也会因为路径不同,产生非线性误差,定位不可能做到百分之百准确,1毫米不差。 |
诸多地面测控系统的任务不仅仅是协调同步卫星们和地面时基的同步,还要随时纠正卫星的姿态、速度,保证它们偏离定点的范围的漂移不超出规定范围。 |
老刘你如果是搞卫星测控的,你会知道地面和卫星之间的光速随时都是在变的,夜间和白天都会有区别。 |
我引用的词条里说到“大气对流层、电离层对信号的影响”,其实这影响是从地面就开始有了的,一直积累到电离层以上的外层,只是人们把它归纳到对流层、电离层而已。这里就包含了气体、离子对场物质的拖拽。而光速总是叠加在场物质上的,这就会造成误差。 |
老王,
GPS信号的接收和计算机计算,是在智能手机里就可以进行的。只是其精度可能稍微第一点。 复杂之处主要是地球相对于ECI的旋转,也就是Sagnac效应。要将GPS卫星信号接收下来,并且接收器在ECI中是不停的运动的,最后还要转换成固定的地球经纬度坐标,如果计算器在地球上不动的话。这些计算都不是简单的,不过也是可以简单的用一个手机里的模块来 完成的。 |
老刘: 【45楼】你想表达的是什么呢?智能手机和汽车的GPS导航都是一样的,都是只接收,不发送。而真正调整卫星发出的时刻信号的,是地面基站和N多测控站,还有其它辅助卫星发出测控信号、中继信号。 |
同步卫星虽然相对地面位置不变,但它们也是早已穿过了大气层的东西。它发出的电磁波,也会有类似太阳光在地面产生的朝阳和夕阳的这种区别。地球旋转,带动气体和场物质有不同程度的旋转。因此直接用光线对钟而没有地面基站的测控反馈,时间是调不准的。 |
“由于卫星运行轨道、卫星时钟存在误差,大气对流层、电离层对信号的影响,使得民用的定位精度只有数十米量级。为提高定位精度,普遍采用 差分定位技术(如DGPS、DGNSS),建立地面基准站 (差分台)进行卫星观测,利用已知的基准站精确坐标,与观测值进行比较,从而得出一修正数,并对外发布。接收机收到该修正数后,与自身的观测值进行比较,消去大部分误差,得到一个比较准确的位置。实验表明,利用 差分定位技术,定位精度可提高到米级。”
仔细读懂这一段,你就会知道,采用“在ECI中光速是常数”的说法是不正确的了。实际上卫星发到地面的时刻信号都是经过测控调整后的信号,都用不着理会那个“光速是常数”发到卫星上的对钟时刻了。这个“民用的定位精度只有几十米量级”这句话意味着什么?它意味着如果不加测控反馈,只按照“光速是常数”原则从地面上行的对钟信号调整卫星时刻会有这几十米的误差。我们来看看这误差的量级是怎么来的: 同步卫星高度35786km,地面信号发上去要经过0.11937秒,期间地表自转过的距离是465*0.11937=55.5米。这是最大的误差。这就是事实上地球自转引出的后果。地面测控站的地理坐标位置是准确的,测控站根据收到的卫星时刻信号计算出自己的位置和自己真实的位置进行比较,如果不符,就要上行给卫星,调整卫星发出的时刻信号。直到卫星发出的时刻信号到达测控站,计算出测控站的位置和真实位置相符后,卫星的时刻才算调好。我虽然不是搞卫星测控的,但是这一套反馈理论全都是一样的。卫星上发出的时刻实际是偏离真实时刻的,这种偏离实际上就把地球自转的影响给消除掉了很大一部分。 |
前面我说的都是根据我的想法给出的判断,我随后又查询了北斗系统的有关词条,果然和我说的一点不差。请看: “由于卫星运行轨道、卫星时钟存在误差,大气对流层、电离层对信号的影响,使得民用的定位精度只有数十米量级。为提高定位精度,普遍采用差分定位技术(如DGPS、DGNSS),建立地面基准站 (差分台)进行卫星观测,利用已知的基准站精确坐标,与观测值进行比较,从而得出一修正数,并对外发布。接收机收到该修正数后,与自身的观测值进行比较,消去大部分误差,得到一个比较准确的位置。实验表明,利用差分定位技术,定位精度可提高到米级。” 引号内为百度百科“北斗导航”中的一段。 |
我不是搞卫星的,但我是搞自动化的,我懂得闭环反馈的意义。老刘你是不是搞卫星的我不知道,同步卫星高度是35786公里,后面还要精确到米、精确到毫米的部分没有写出来,比如这个距离是h=357860123.456米,在它的正下方0秒时刻发一无线电波或光信号,它不可能t=h/c=1.193692882881秒时刻准时到达卫星。如果卫星按照这个时刻把卫星的时钟对准成1.193692882881秒,它再用对好的时刻发一个信号,比如在地面垂直点东方1000公里的位置再去读取这个时刻,再和那里地面的钟进行比对,就能看到误差。科学家们有办法可以调整卫星上的时刻,使之在所覆盖的范围内,平均定时误差减少到最小。这里就会有很多算法,科学家把这些算法也输入到卫星上的计算机里,才能完成时间的同步,其实也都是折衷的同步。现在GPS定位也是有几米误差的,这就和光速的非线性有关。天上同步卫星的密度直接影响定位精度。密度越高,定位精度也越高。 |
在地面上,两方向光速不一样,这是肯定的了,因为朝阳比夕阳明亮。在地面上空,两方向光速也不一样,因为朝霞是金黄色,晚霞是红色。这都是地面对地外来光做出的反映。对地面光源来说,这种现象不存在,因为光子从光源发出的时候就已经带有地面的速度了。简单举个例子,假如在东西方向有两个相距10千米的高峰,在云层高度上互相对射同频率的光,两光源之间有静止的云层,就不会产生朝霞和晚霞的区别。而地外来的同频率光会产生朝霞和晚霞的区别。 |
我提出的真多普勒效应和伪多普勒效应概念是过去没有的概念,事实上是我对多普勒效应的细分。 一个运动波源(如火车头上的汽笛)发出的声波在运动前、后方的介质中产生的频率变化,我称它为真多普勒效应。真多普勒效应对所有观察者都有影响。波源不动而观察者运动,观察者察觉到的频率变化我称之为伪多普勒效应。伪多普勒效应不在介质中产生频率变化,只对有运动速度的观察者有效,其它静止观察者感受不到。 真、伪多普勒效应的作用对象不同。真多普勒效应影响的是相对运动波源的介质中的频率,而伪多普勒效应影响的是运动接收点收到的波的频率。这是完全不同的两种物理现象。因此,我特意用真、伪二字把它们区别开来。 波源和观察者都有相同运动速度时,真、伪两种多普勒效应共同作用于观察者,对这个特定观察者来说,作用刚好抵消,依然如他静止在静止波源附近一样。 |
同步卫星的时刻都调成绝对同时后,它们发向地球的载有时刻信息的电磁波也会经过不同的路径到达地面GPS导航设备。它们都会受到场物质的影响而产生误差。地面一些基站也会提供一些修正参数提供给GPS使用者。有了这些修正才能进一步提高定位精度。
比如你进入了一个四周环山的境地,你所用的GPS导航装置接收到几颗卫星的时刻信号,但收不到地面基站发出的修正信号,你的装置计算出你的所在位置偏差就大。如果你在平原或城市中,附近有辅助地面基站,你的GPS装置的定位比如一下子就能提高一个数量级,这都是修正的结果。 光速并不是常数。 |
GPS卫星不是同步卫星,而是位置在不断变化着的卫星。GPS系统有军用频率和商用(民用)频率之分。
除了频率不同之外,应该是在两个不同的频率上运行的是两组精度不同的信号,而作为保证的是一个个卫星上的原子钟的精度和误差。我看到的较早的资料中有GPS卫星载的原子钟的误差是 < 5ns/h .理论上1ns的误差对应的定位误差是30cm. 原子钟的误差,需要由地面站修正。建立地面基准站,估计是在固定的经纬度上,由接收卫星信号算出来的经纬度是会出现误差,并且会有漂移的。发布偏移数据可供其他接收器进行修正。 最基本的部分,卫星发出时间信号,接收器接收信号比较出时间差。由此计算出位置。 |
同步卫星一样是可以导航的,从定位原理来说,都是一样的。不在同步轨道运行的卫星用于民用更加经济。轨道高度低,发射功率可以小,而且可以发射很多颗不同轨道高度的卫星,没有空间资源紧张的问题。这是具体实现问题。同步轨道是唯一的,因此空间资源是比较紧张的。每个国家都发几颗同步卫星,这轨道上就快满了,而非同步轨道空间却大得很。这不是原理性问题。 |
不管卫星上的时钟同步得多么准确,假如它们的时钟是无差的,这意思就是说1皮秒都不差,信号到达地面由于路径不同依然产生偏差,地面基站必须参与修正。
玩无线电的人都知道,想听短波电台,只有夜间效果最好,能听到几千、上万公里外的电台广播。而在白天,几乎完全听不到。这就是电离层高度变化了。这个高度昼夜变化是非常大的。同时,月球转动造成的地球大气潮汐也都波及到电离层以上的外层,哪样都会对电波的直线传播产生影响。 |
大气密度不同,场物质密度也不同,会造成非垂直射入的光线(含电磁波)产生折射,这个折射也是非线性的。这个非线性不仅体现在正弦函数之比形式上,还体现在大气层和真空没有固定的、明显的分界线、体现在界面内的气体物质、场物质密度的不均匀。
我们知道,平时我们看日出,当你看到太阳刚冒出地平线时,实际上太阳的上边沿还没出地平线。我们最先看到太阳的冒头,是高空大气折射过来的。如果没有大气存在,那时刻就看不到太阳冒头,也就是说看到太阳的时刻要晚一些。 卫星只要不在我们正头顶,这种折射也都会产生,这些都是造成非线性定位误差的因素。 |
老刘你说“GPS系统有军用频率和商用(民用)频率之分。 除了频率不同之外,应该是在两个不同的频率上运行的是两组精度不同的信号,而作为保证的是一个个卫星上的原子钟的精度和误差。” 这个问题就很有趣了!一个卫星上,最多同时使用一个原子钟。一旦原子钟和地面时钟同步后,它的精度就确定了,实在没有必要再去降低它的精度去给民用。 那么为什么两套频率会出现不同精度的信号呢?又为什么民用的频率精度低呢? 这是因为民用的频率都比军用的频率低。民用设备一般都是低成本的设备,如手机、车载定位仪,接收低频从元器件上就造价低,因此低频率的给民用。 那么为什么民用的精度会低呢?因为载波频率高,载有信息的效率就高,比如军用的高频可以每秒发10万个数据,而民用的低频每秒只发1万个数据。 根据采样定理,采样次数多的,还原的真实度也高。精度实际上是体现在这里了。 又比如,我们的语音信号,大概是几千赫的频率,我们用几百倍的频率去调制它,出来一个调幅波。把这个调幅波解调,比如通过二极管检波,通过低通滤波器后,我们可以还原出音频信号。这个调制频率越高,还原出的音频失真越小。假如,我们用低于二倍音频的载频去调制它,我们再用二极管检波的方法,就根本解调不出来原来的音频信号了(当然还存在其它方法能解调出来)。 |
我是这样理解的,军用频率精度很高,但不可以让别人共享。卫星同时发送低精度度的信号供民用,一般情况下用这种低精度的信号,民用需求就可以得到满足了。
频率也不是可以随便选的,例如电离层可以反射无线电信号,选择频率的时候要躲开可能被发射的频率。 当初伽利略系统选择的频率,就在美国的压力下被迫放弃了,并承担了精度下降的结果。 |
老刘: 你说“军用频率精度很高”,说明你对无线电不甚了解。卫星上的下行载波频率,其频率稳定度都是一样的。比如发射频率是用恒温石英晶体振荡器做信号源,它的频率和原子钟不产生关联。石英谐振器的频率一般最大只能做到几十兆赫兹,再高就无法机械实现了。采用泛音晶体也最多做到几个倍频,能到一百多兆赫兹也就了不得了。因此上几百、几千兆赫兹的载频的产生,都是采用频率合成技术实现的,即锁相环PLL技术。锁相环技术可以将低频晶体产生的比如10兆赫兹的频率,变换成人们所需要的任意频率(在器件最大工作速度限制内)。采用频率合成技术所产生的任意频率的载频,其频率稳定度和基准晶体振荡器产生的频率稳定度是相同的。这就是说,假如民用载波频率是1G赫兹,军用的是10G赫兹,它们的频率稳定度是相同的,比如军用的是10^(-10)/年,民用的频率稳定度也是这个数。 载波频率不同,单位时间所携带的信息量也不同。不管是调频、调幅、调相,要表达一个逻辑高1,要使用几个周波数,表达一个逻辑低0,也要使用几个周波数。比如要表达一个时刻值,使用N个字节进行传输,这里面要有用于表达时间的部分,还要有表达卫星位置的部分,还要有校验和部分。总的一帧完整数据要有很多字节组成。对于军用的,可能还带有加密算法。载波频率高的,可以在短的间隔内发送的数据帧多,从而对运动物体的定位精度高。载波频率低的,两帧数据的间隔就大,对于运动的物体,时刻盲区就大。 当然也不排除民用的帧结构的不同。比如加密的字节可以省去,数据精度可以压缩,比如用8个字节表示的数改用4个字节表示,也是可以的。 这里载波频率的精度不是问题的关键。 |