<div dir="ltr"><div dir="ltr"><div class="gmail_default"><font color="#000000">Hello community, </font></div><div class="gmail_default"><font color="#000000">Myself Heet sankesara. I am a machine learning practitioner. I've been doing it for a year. I recently learned Haskell to implement Markov Logic Networks. I found the language intuitive. It is far easier to express logic and formulas in Haskell as compared to languages like Python or R.  So I decided to do some data science using it but I couldn't because there is no library like Sklearn in Python. The few libraries I found are mostly disoriented and undermanaged. </font></div><div class="gmail_default"><span style="color:rgb(0,0,0)">I want to work on machine learning library which can be used easily and efficiently by machine learning practitioners. It would be helpful for everyone to have a dedicated machine learning library. For a practitioner, it would be easier to tweak and test the model and try different algorithms quickly. For the community, the dedicated library leads the developers to focus on it and improve it which would result in a more efficient and flexible library. </span><br></div><div class="gmail_default"><div class="gmail_default" style="color:rgb(0,0,0)">The list of algorithms I am planning to implement are as follows:</div><div class="gmail_default" style="color:rgb(0,0,0)">1. Linear and Logistic Regression</div><div class="gmail_default" style="color:rgb(0,0,0)">2. Ridge Regression</div><div class="gmail_default" style="color:rgb(0,0,0)">3. Perceptron</div><div class="gmail_default" style="color:rgb(0,0,0)">4. SVM classifier and regressor (Both Linear and Non-Linear)</div><div class="gmail_default" style="color:rgb(0,0,0)">5. Stochastic Gradient Descent</div><div class="gmail_default" style="color:rgb(0,0,0)">6. K-means clustering and  KNN classifier</div><div class="gmail_default" style="color:rgb(0,0,0)">7. Naive Bayes</div><div class="gmail_default" style="color:rgb(0,0,0)">8. Decision trees</div><div class="gmail_default" style="color:rgb(0,0,0)">9. Random Forest</div><div class="gmail_default" style="color:rgb(0,0,0)">10. Gradient boosting </div><div class="gmail_default" style="color:rgb(0,0,0)">11. Ada boost</div><div class="gmail_default" style="color:rgb(0,0,0)">12. Voting classifier</div><div class="gmail_default" style="color:rgb(0,0,0)">13. Neural Network</div><div class="gmail_default" style="color:rgb(0,0,0)">14. Gradient Descent, Momentum, Nesterov accelerated gradient</div><div class="gmail_default" style="color:rgb(0,0,0)">15. Adaptive Moment Estimation (Adam optimizer)</div><div class="gmail_default" style="color:rgb(0,0,0)">Please consider this idea for GSoC this year. I am be happy to talk about the idea and possible algorithms that can be implemented in the upcoming summer.</div><div class="gmail_default" style="color:rgb(0,0,0)">With regards,</div><div class="gmail_default" style="color:rgb(0,0,0)">Heet Sankesara</div></div></div></div>