Board logo

标题: 请教在LABVIEW中如何精确延时1ms [打印本页]

作者: boone301    时间: 2004-8-17 16:03

You can find it in Time & Dialog\wait
作者: calvinxia    时间: 2004-8-17 16:15     标题: 请教在LABVIEW中如何精确延时1ms

我的项目要求把信号采集来处理之后,精确延时一段时间(最小精度1ms)后输出,请问该如何处理。
因为我觉得NT这个操作系统本身提供的定时器最小只提供10ms的,而且并不精确,那么作为这个操作系统之下的软件,LABVIEW的时间粒度同样也不会比这个定时器更小吧。
还有一个问题,LABVIEW中的软件执行过程的时间怎么估计呢?
作者: NIChina    时间: 2004-8-17 16:15

关于您对操作系统和定时器的理解是正确的,使用多任务的象NT这样的系统,是不可能做到精确定时的。但是并不是说您的问题就无法解决了,关键要看最后用来做什么。所以,我需要确认一下你的问题。如果只是输出来显示的话,1ms的精度是没有意义的,如果是存盘,也不可能做到,因为读写文件本来就是无法精确定时的。如果是要在记录数据的同时精确的记录采集数据当时的时间,那是可以通过硬件的采样率的设定做到的。具体的做法有很多,等确认问题以后,我才好给你分析:)
执行时间的估算,在不同的平台下也不一样,如果只是Windows系统的话,可以用tick count来做,也可以用带counter的板卡上的计数器来做,也可以用timestamp来做。
作者: owenzlyang    时间: 2008-5-22 22:49

dddddd
作者: owenzlyang    时间: 2008-5-22 22:49

ddddddddd
作者: owenzlyang    时间: 2008-5-22 22:49

ddd
作者: hpqian    时间: 2008-11-3 16:50

顶一下啊!
作者: rdhhzjz    时间: 2008-11-23 15:50

OK
作者: fjczd    时间: 2008-12-26 08:51

QUOTE:
以下是引用calvinxia在2004-8-17 16:15:00的发言:
我的项目要求把信号采集来处理之后,精确延时一段时间(最小精度1ms)后输出,请问该如何处理。
因为我觉得NT这个操作系统本身提供的定时器最小只提供10ms的,而且并不精确,那么作为这个操作系统之下的软件,LABVIEW的时间粒度同样也不会比这个定时器更小吧。
还有一个问题,LABVIEW中的软件执行过程的时间怎么估计呢?

建议到www.cpubbs.com看看,那的资料不少,人气也挺旺的

欢迎访问我的博客
http://blog.sina.com.cn/mylabview
labview开发工具及翔实资料(正版破解)


作者: fjczd    时间: 2008-12-26 08:52

建议到www.cpubbs.com看看,那的资料不少,人气也挺旺的

欢迎访问我的博客
http://blog.sina.com.cn/mylabview
labview开发工具及翔实资料(正版破解)






欢迎光临 电子技术论坛_中国专业的电子工程师学习交流社区-中电网技术论坛 (http://bbs.eccn.com/) Powered by Discuz! 7.0.0