2011년 11월 23일 수요일

Elephant Camp @Chiang Mai

IJCNLP 2011 참석 후, 토요일에 학회에서 만난
Cohan, Ludovic, Stavroula와 함께 다녀온
반 나절 다녀온 것이지만,
정말 멋진 추억이 되었다. 
코끼리를 타보다니~ ㅎㅎ 
태국 사람들에게 코끼린 매우 소중한 존재인 듯 하다. 
태국 local beer중에 이란게 있는데,
Chang이 코끼리란 뜻이니 말이다.
내가 묵었던 숙소 이름도 Chang Thai house이고, ㅋ 
암튼, 코끼리들이 많이 죽고 해서, 태국에서도 
보호에 힘쓴다고 한다.. 
조련사 분들이 쓰고 있는 모자를 코끼리가 씌워주고
'톡톡'하고 치는데 완전 귀엽다! 
치앙마이 가기전에 코끼리 보러 가봐야겠단 생각을 했었는데, 
정말 보게 되어 기쁘다 ㅋㅋ 


거대하지만 귀여운 코끼리들... 젤 좋아하는 동물로 등극... 









샤워하는 코끼리들~ 귀여워 





코끼리 쇼 시작! 







painting 하는 코끼리~ 완전 유명~ 




등에 태우고 다니면서도 끊임없이 먹는당.. 하루에 250kg 먹는다는... 


코끼리 똥! ㅋㅋ

코끼리 라이딩!
아우 신나... 
코끼리 캠프에 같이 간 Cohan.. 인도사람이다~ 

캠프에 같이간~ 프랑스에서 온 Stavroula와 Ludovic
















마지막에 물속으로 들어가서 샤워했다~ 
왕 신기... 

2011년 11월 21일 월요일

Generative learning (model) vs. Discriminative learning (model)

진우가 찾은 Q/A인데, 잘 나와있다.. ㅎㅎ

Let's say you have input data x and you want to classify the data into labels y. A generative model learns the joint probability distribution p(x,y) and a discriminative model learns the conditionalprobability distribution p(y|x) - which you should read as 'the probability of y given x'.
Here's a really simple example. Suppose you have the following data in the form (x,y):
(1,0), (1,0), (2,0), (2, 1)
p(x,y) is
      y=0   y=1
     -----------
x=1 | 1/2   0
x=2 | 1/4   1/4
p(y|x) is
      y=0   y=1
     -----------
x=1 | 1     0
x=2 | 1/2   1/2
If you take a few minutes to stare at those two matrices, you will understand the difference between the two probability distributions.
The distribution p(y|x) is the natural distribution for classifying a given example x into a class y, which is why algorithms that model this directly are called discriminative algorithms. Generative algorithms model p(x,y), which can be tranformed into p(y|x) by applying Bayes rule and then used for classification. However, the distribution p(x,y) can also be used for other purposes. For example you could use p(x,y) to generate likely (x,y) pairs.
From the description above you might be thinking that generative models are more generally useful and therefore better, but it's not as simple as that. This paper is a very popular reference on the subject of discriminative vs. generative classifiers, but it's pretty heavy going. The overall gist is that discriminative models generally outperform generative models in classification tasks.

그리고, 아래 논문의 말을 보면 좀 이해가 된다.. ㅋ 
HMMs are a form of generative model, that defines a joint probability distribution p(X,Y ) where X and Y are random variables respectively ranging over observation sequences and their corresponding label sequences. In order to define a joint distribution of this nature, generative models must enumerate all possible observation sequences. 
One way of satisfying both these criteria is to use a model that defines a conditional probability p(Y |x) over label sequences given a particular observation sequence x, rather than a joint distribution over both label and observation sequences. Conditional models are used to label a novel observation sequence x? by selecting the label sequence y? that maximizes the conditional probability p(y?|x?). The conditional nature of such models means that no effort is wasted on modeling the observations, and one is free from having to make unwarranted independence assumptions about these sequences; arbitrary attributes of the observation data may be captured by the model, without the modeler having to worry about how these attributes are related.
글고, CRF 강의 URL

http://videolectures.net/cikm08_elkan_llmacrf/

Doctor Who Christmas Special

닥터후 크리스마스 스페셜 prequel이 나왔다!
ㄷㄷㄷ
핫 초코 마시며~
두툼한 양말 속 발가락 꼼지락 거리며~
봐야하는뎅...


2011년 11월 20일 일요일

다시 리츄얼속으로.... 안경

학회 전후로, 블로그 질을 못했다.. ㅠ.ㅠ
승찬이 미국가고, 거의 한주도 안 빠지고
일상의 기록을 여기에 했었는데... ㅋ
이제 다시 해야지~
2011년의 기억들~ 잘 마무리하자!

레오파드 무늬의 새안경...
건강검진 후, 시력이 안 좋길래.. 새로운 안경을 맞췄다
디자인은 그대로지만~ 분위기는 좀 다르게~ ㅎㅎ
이쁘다. 맘에 든다..

나의 리츄얼!
블로깅
커삼 방문...
그리고 가끔 셀카..