전체 글 49

tistory에 삽입한 iframe 넓게 펼치기

참고: https://stackoverflow.com/questions/5581034/is-there-a-way-to-make-a-child-divs-width-wider-than-the-parent-div-using-css https://css-tricks.com/full-width-containers-limited-width-parents/ 2023.09.25 - [기타] - tistory에 iframe 삽입 (+ iframe 스케일링) tistory에 iframe 삽입 (+ iframe 스케일링) tistory 글에 외부 URL을 태그로 삽입할 수 있다. 서식을 추가해두면 추후 추가 시 편리하다. 삽입한 페이지가 블로그 기본 폭보다 넓어서 화면이 잘리는 경우 스케일링을 적용하여 전체 페이지를 fre..

기타 2023.09.28

tistory에 iframe 삽입 (+ iframe 스케일링)

tistory 글에 외부 URL을 태그로 삽입할 수 있다. 서식을 추가해두면 추후 추가 시 편리하다. 삽입한 페이지가 블로그 기본 폭보다 넓어서 화면이 잘리는 경우 스케일링을 적용하여 전체 페이지를 보여줄 수 있다. 블로그 폭보다 넓게 iframe 크기를 늘리는 방법도 있다. 태그 삽입 1. 상단 메뉴에서 기본모드를 HTML로 변경 2. 적절한 위치에 태그 추가 src 속성에 URL 설정 width=100%, height 적당히 설정 참고: 태그만 추가해도 기본모드로 오면 태그가 자동으로 추가됨 아래와 같이 글 안에 외부 URL이 삽입된다. HTML 모드 대신 더보기(⋯) > HTML로 태그를 추가할 수도 있다. 하지만, 이렇게 하면 편집 중에 내용이 보이지 않는 단점이 있다. (상관 없다면 이 방법이 ..

기타 2023.09.25

Gradient Boosting (XGBoost, LightGBM, CatBoost 비교)

https://www.geeksforgeeks.org/ml-gradient-boosting/ Gradient Boosting in ML - GeeksforGeeks A Computer Science portal for geeks. It contains well written, well thought and well explained computer science and programming articles, quizzes and practice/competitive programming/company interview Questions. www.geeksforgeeks.org https://zephyrus1111.tistory.com/224 20. Gradient Boosting 알고리즘에 대해서 알아보..

AI,머신러닝 2023.09.19

Target Encoding - 범주형 변수의 수치형 변환

https://towardsdatascience.com/dealing-with-categorical-variables-by-using-target-encoder-a0f1733a4c69 Target-encoding Categorical Variables One nice alternative to One-hot encoding your categories towardsdatascience.com 대부분의 머신러닝 알고리즘은 입력값으로 수치형 변수만을 사용하므로, 범주형 변수는 수치형으로 변환해야 한다. 흔히 쓰이는 방법으로는 Ordinal Encoding과 One-Hot Encoding이 있는데, 다음과 같은 특징과 단점을 갖고 있다. (https://scikit-learn.org/stable/modules..

L1, L2 정규화(Regularization)

https://junklee.tistory.com/29 L1, L2 Norm, Loss, Regularization? 정규화 관련 용어로 자주 등장하는 L1, L2 정규화(Regularization)입니다. 이번에는 단순하게 이게 더 좋다 나쁘다보다도, L1, L2 그 자체가 어떤 의미인지 짚어보고자합니다. 사용된 그림은 위키피디아 junklee.tistory.com L1 Norm 과 L2 Norm 의 직관적 차이 위 그림을 보시면 두 개의 검은 점(벡터)를 잇는 여러 선들이 존재합니다. 벡터 사이의 거리를 재는 서로 다른 Norm을 표기한 셈입니다. 여기서 초록색 선이 우리가 가장 잘 알고있는, Euclidean distance, 즉 L2 Norm입니다. 단 하나의 경우밖에 있을 수 없지요. 그런데 나..

크로스 엔트로피 (Cross-Entropy)

https://towardsdatascience.com/understanding-binary-cross-entropy-log-loss-a-visual-explanation-a3ac6025181a Understanding binary cross-entropy / log loss: a visual explanation Have you ever thought about what exactly does it mean to use this loss function? towardsdatascience.com https://3months.tistory.com/436 Cross-entropy 의 이해: 정보이론과의 관계 Cross-entropy 의 이해: 정보이론과의 관계 1. 손실함수로서의 Cross-entropy ..

의사결정 트리(Decision Tree) - 피쳐 중요도(Feature Importance) 측정

2023.09.04 - [AI,머신러닝] - XGBoost 피쳐 중요도 https://medium.com/the-artificial-impostor/feature-importance-measures-for-tree-models-part-i-47f187c1a2c3 Feature Importance Measures for Tree Models — Part I An Incomplete Review medium.com https://mljar.com/blog/feature-importance-in-random-forest/ Random Forest Feature Importance Computed in 3 Ways with Python The feature importance (variable importanc..

AI,머신러닝 2023.09.01