-
#include
#include
#include
using namespace std;
extern void test_microseconds()large_integer litmp;
longlong qt1, qt2;
double dft, dff, dfm;
clock_t st, et;
獲取時鐘頻率。
dff = (double) ;
while (1) {
獲取初始值。
qt1 = ;
st = clock();
sleep(100);
獲取停止值。
qt2 = ;
et = clock();
dfm = (double) (qt2 - qt1);
dft = dfm / dff;獲取相應的時間值(以秒為單位)。
cout < cout “從新增毫秒級 clock() 進行對比修改而來,可以看出它確實精確到了微妙級別!
-
從另乙個開始時間開始=gettickcount(); 結束是另乙個 time=gettickcount()-開始時間; 時間是程式執行的毫秒數。
-
加快執行效率,對吧? 這是乙個大專案,需要乙個非常有經驗的工程師來做。 另外,不同的專案使用不同的方法,但通常有幾個參考方案,你從上到下一一看。
優化您的業務邏輯,並盡可能少地執行操作。
減少網路訪問、IO 和其他外部操作。
如果您有資料庫,請優化 SQL 和資料庫結構。
優化演算法,例如將氣泡排序更改為快速排序。
優化 ** 的寫作。 那是很多。
減少系統呼叫次數並減少對系統物件的訪問。 因為使用者模式到核心模式的轉換速度很慢。
修改編譯選項。 更改為 O2 編譯優化。
我讓你從上到下看的意思是,以下優化的效果肯定小於上述優化效果的一小部分。 比如,如果你的IO操作不合理,不管你怎麼優化演算法,都是無稽之談。 你的演算法不好,使用編譯優化只是杯水車薪。
通常在當前專案中,如果你能完成 1 和 2,大部分問題都會得到解決。
-
只有一種方法可以減少程式執行時間:
1.優化程式演算法。
-
學習演算法,學習資料結構,你就會明白。
你寫完了 char * s1 ="string"
我在這裡弄錯了,所以所述字串 0 在常量區域,而 s1 在堆疊上。 >>>More