Dear Alexandre,<div><br></div><div>thank you for your questions. </div><div><br></div><div>First, about the framework. Evidently, I was not successful in explaining the purpose of the InfoFramework. I implemented the framework to experiment and to compose software prototypes in opinion mining. However, the framework is NOT only for opinion mining or lexical processing. It is rather for statistical  processing generally in every domain, for example, acoustic or neurobiological processing. Moreover, the outcomes do not have to be emotional or sentiment-based. The framework (so the name) provides the basis for experimentation and rapid prototyping and doesn't limit you to use of particular classification algorithms. Hence, since InfoFramework is based on WEKA, you can use there all WEKA algorithms available, for example, NaiveBayes or SVM or many others.</div>
<div><br></div><div>Now your questions.</div><div><br></div><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">which predicts a sentiment label (i.e., positive, negative or neutral)<br>

instead of an emotion. The approach that is currently available, though,<br>
is based on a dictionary of affect instead of being automatically learnt.<br>
I once compared EmoLib to a tool similar to yours:<br>
<br>
<a href="http://atrilla.net/index.php?article=blog&specific=35" target="_blank">http://atrilla.net/index.php?article=blog&specific=35</a><br>
<br>
and I qualitatively found that Machine Learning approaches tend<br>
to perform better at the expense of having a poorer generalisation ability<br>
(domain-specific limitation according to the topic/s of the training text).<br>
Or put in a different way, affective-dictionary-based approaches perform<br>
more modestly but are more generalisable (thus avoiding domain transfer<br>
problems?). Do you have a similar feeling with respect to this?<br></blockquote><div>I have exactly the same feeling and also much evidence. For instance, we published the "Lexical Affect Sensing: Are Affect Dictionaries Necessary to Analyze Affect?" (<a href="http://edu.cs.uni-magdeburg.de/EC/lehre/sommersemester-2010/emotional-computing/informationen-zum-seminar/blog/annotation/AreAffectDictionariesNecssaryFulltext.pdf">http://edu.cs.uni-magdeburg.de/EC/lehre/sommersemester-2010/emotional-computing/informationen-zum-seminar/blog/annotation/AreAffectDictionariesNecssaryFulltext.pdf</a>). In my phd, I already relied on these findings and used, for example, stylometric, grammatical or deictic features. I also used Whissell's DAL as a source of lexical features to prove my hypothesis -- the results are much poorer if you compare with opinion mining using the BNC frequency list. QED</div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
At least this is my mind and that's why I have not delivered a service<br>
with any of the learnt methods that EmoLib also implements (basically the<br>
Multinomial Naive Bayes, the Vector Space Model, LSA, Multinomial Logistic<br>
Regression and SVM). Which technique does EmoText use?<br>
<br></blockquote><div>In my phd, I tried to answer such core data-mining questions as choice of classifier, feature evaluation and so on. I compared results of NaiveBayes, SVM, InformationGain with SVM. In my opinion, the choice of classifiers is not important. More important, is the choice of features and explanation of obtained results. </div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Moreover, EmoLib first splits the sentences of the input text, then<br>
predicts the sentence-wise sentiment labels independently, and finally<br>
draws the affective wash at paragraph level. Do you follow a similar<br>
approach in EmoText?<br>
<br></blockquote><div>In my phd, I considered splitting texts in sentences and provided results for, as you can call it, hybrid approach that combines the semantic and the statistical approach to opinion mining (first classification of sentences and classifying longer texts as paragraphs). However, the results are worse than classification using only lexical features.</div>
<div><br></div><div>Best</div><div>Alexander</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Thank you, indeed.<br>
<br>
Alex<br>
<div><div class="h5"><br>
<br>
> Dear all,<br>
><br>
> I put a brief description of my framework on the Internet that I<br>
> implemented in the context of the statistical EmoText (<br>
> <a href="http://www.socioware.de/technology.html#framework" target="_blank">www.socioware.de/technology.html#framework</a>). You might notice some<br>
> resemblance with the WEKA Experimenter. Since I didn't have  any brilliant<br>
> idea on how to name this framework, I called it simply InfoFramework.<br>
><br>
> Although I tested the framework in the context of opinion mining, I assume<br>
> it can be used for any kind of statistical processing.<br>
><br>
> Best<br>
> Alexander<br>
</div></div>> _______________________________________________<br>
> UNSUBSCRIBE from this page: <a href="http://mailman.uib.no/options/corpora" target="_blank">http://mailman.uib.no/options/corpora</a><br>
> Corpora mailing list<br>
> <a href="mailto:Corpora@uib.no">Corpora@uib.no</a><br>
> <a href="http://mailman.uib.no/listinfo/corpora" target="_blank">http://mailman.uib.no/listinfo/corpora</a><br>
><br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
--<br>
_________________________________________________<br>
<br>
 ALEXANDRE TRILLA<br>
 B.Sc., M.Sc. in Electronics, Telecommunications<br>
 Engineering and Information Technology<br>
<br>
 Email: <a href="mailto:alex@atrilla.net">alex@atrilla.net</a><br>
 Homepage: <a href="http://atrilla.net" target="_blank">http://atrilla.net</a><br>
_________________________________________________<br>
<br>
<br>
</font></span></blockquote></div><br></div>