<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On 13 March 2014 02:41, Hurricane Tong <span dir="ltr"><<a href="mailto:zhangshangtong.cpp@qq.com" target="_blank">zhangshangtong.cpp@qq.com</a>></span> wrote:<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div>When only encoding the first 1000lines, </div><div>both cost 0ms to decode and VS cost 1ms to encode while Interpolative cost 0ms,</div><div>1000lines is just too little to catch the difference in my test.</div></blockquote>

<div><br></div><div>When measuring small times like that there are two approaches you can try:</div><div><br></div><div> - run the test code lots of times.  Ideally, with different data each time so that you don't get too many cache effects (ie, with the same data, you might find that subsequent runs are much faster than the first).  So, in this case, you could try encoding the whole thing, but in chunks of 1000.</div>

<div><br></div><div> - run the test under a tool like valgrind's "cachegrind", which measures the theoretical performance on a particular CPU architecture, and gives precise counts of operations performed.</div>

<div> </div><div><span style="font-size:12px;background-color:rgb(239,239,239)">-- </span></div><div><span style="font-size:12px;background-color:rgb(239,239,239)">Richard</span></div></div></div></div>