A Brief History of Statistical Learning

통계적 학습의 간략한 역사

Though the term statistical learning is fairly new, many of the concepts that underlie the field were developed long ago.

통계적 학습이라는 용어는 비교적 새롭지만, 이 분야의 기초가 되는 많은 개념들은 오래전에 개발되었습니다.

At the beginning of the nineteenth century, the method of least squares was developed, implementing the earliest form of what is now known as linear regression.

19세기 초에 최소 제곱법이 개발되어, 오늘날 선형 회귀로 알려진 모형의 초기 형태를 구현했습니다.

The approach was first successfully applied to problems in astronomy.

이 접근법은 처음으로 천문학 문제에 성공적으로 적용되었습니다.

Linear regression is used for predicting quantitative values, such as an individual’s salary.

선형 회귀는 개인의 급여와 같은 정량적 값을 예측하는 데 사용됩니다.

In order to predict qualitative values, such as whether a patient survives or dies, or whether the stock market increases or decreases, linear discriminant analysis was proposed in 1936.

환자가 생존할지 사망할지, 또는 주식 시장이 상승할지 하락할지와 같은 정성적 값을 예측하기 위해 1936년에 선형 판별 분석이 제안되었습니다.

In the 1940s, various authors put forth an alternative approach, logistic regression.

1940년대에 여러 학자들이 로지스틱 회귀라는 대안적인 접근 방식을 제시했습니다.

In the early 1970s, the term generalized linear model was developed to describe an entire class of statistical learning methods that include both linear and logistic regression as special cases.

1970년대 초반에는 선형 회귀와 로지스틱 회귀를 모두 특수한 경우로 포함하는 통계적 학습 방법의 전체 클래스를 설명하기 위해 일반화 선형 모델이라는 용어가 개발되었습니다.

By the end of the 1970s, many more techniques for learning from data were available.

1970년대 말까지 데이터에서 학습하는 데 더 많은 전반적인 기술을 사용할 수 있게 되었습니다.

However, they were almost exclusively linear methods because fitting non-linear relationships was computationally difficult at the time.

그러나 당시에는 비선형 관계를 맞추는 것이 계산상 어려웠기 때문에 거의 전적으로 선형 방법적이었습니다.

By the 1980s, computing technology had finally improved sufficiently that non-linear methods were no longer computationally prohibitive.

1980년대에 이르러 컴퓨터 기술이 마침내 충분히 향상되어 비선형 방법이 더 이상 계산적으로 엄청나게 불가능한 것이 아니게 되었습니다.

In the mid 1980s, classification and regression trees were developed, followed shortly by generalized additive models.

1980년대 중반에 분류 및 회귀 트리가 개발되었고 곧이어 일반화 가법 모델이 뒤를 이었습니다.

Neural networks gained popularity in the 1980s, and support vector machines arose in the 1990s.

신경망은 1980년대에 인기를 얻었고 서포트 벡터 머신은 1990년대에 등장했습니다.

Since that time, statistical learning has emerged as a new subfield in statistics, focused on supervised and unsupervised modeling and prediction.

그 이후로 통계적 학습은 지도 및 비지도 모델링과 예측에 초점을 맞춘 통계의 새로운 하위 분야로 부상했습니다.

In recent years, progress in statistical learning has been marked by the increasing availability of powerful and relatively user-friendly software, such as the popular and freely available Python system.

최근 몇 년 동안 통계적 학습의 발전은 대중적이고 무료로 사용할 수 있는 파이썬(Python) 시스템과 같이 강력하고 비교적 사용자 친화적인 소프트웨어의 가용성 증가로 두드러졌습니다.

This has the potential to continue the transformation of the field from a set of techniques used and developed by statisticians and computer scientists to an essential toolkit for a much broader community.

이것은 통계학자와 컴퓨터 과학자가 사용하고 개발한 기술 세트에서 훨씬 더 넓은 커뮤니티를 위한 필수 도구 모음으로 이 분야의 변혁을 계속할 수 있는 엄청난 잠재력을 가지고 있습니다.

서브목차