<div dir="ltr"><div>Hi Parth,</div><div><br></div><div>In this research <a href="http://research.microsoft.com/en-us/people/tyliu/fsr.pdf" target="_blank">paper</a> of feature selection algorithm for ranking, the importance scores of features is described as-<br>


</div><div><br></div><div><i>"</i>We first assign an importance score to each feature. Specifically, we propose using an evaluation measure like MAP and NDCG (the definitions of them will be given in Section 3) or a loss function (e.g. pair-wise ranking errors [10][13]) to compute the importance score. In the former, we first <b>rank instances(1)</b> using the feature, evaluate the performance in terms of the measure, and then take the evaluation result as the importance score. In the latter, we also rank instances using the feature, and then view a score inversely proportional to the corresponding loss as the importance score. Note that for some features larger values correspond to higher ranks while for other features smaller values correspond to higher ranks, when calculating MAP, NDCG or the loss of ranking models, <b>we actually sort the instances for two </b><b>times (in the normal order and in the inverse order), and take the </b><b>larger score as the importance score of the feature.(2)</b><i>"</i></div>


<div><br></div><div>1. Is it Ok if we rank them with SVMRanker. SVMRanker is a linear kernel SVM so how did you tune the parameter C(penalty for error term)? Did you use Grid Search for C?</div><div><br></div><div>2. I couldn't understand what they mean by these lines in bold. Could you please explain me?</div>


<div><br></div><div><b>PS</b>: I've send a proposal for Letor. It'll be great if you could review it and tell me if any detail is missing or I've missed out something so that I can improve upon it.</div></div>