전체 글 71

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 13주차 1일. IT 인프라(1). 스위치 네트워크, IP 네트워크

4차 5차 미프와 에이블데이까지 겪고 나서 하는 오랜만의 포스팅.  포스팅 할 거리가 넘쳐난다. 와중에 이번주 토요일에는 경영정보 시각화 필기시험이 있다 ㅎㅎ 화이팅     IT 인프라 정의IT로 서비스하기 위한 모든 기반시설(자원)을 의미한다.네트워크서버데이터베이스정보 보안시스템 소프트웨어 이것들은 세 가지의 주요 구성요소를 가지고 있다.하드웨어(HW)물리적 장비PC, CPU, 서버, 스토리지, 라우터, 스위치소프트웨어(SW)프로그램OS, Database, MS office네트워크장비를 연결하는 장비 또는 연결 그 자체공유기(라우터), 스위치*, 방화벽, 케이블 * 라우터, 스위치 등이 하드웨어에도 있고 네트워크에도 있다.네트워크는 HW, SW를 가리지 않고 연결을 담당하는 녀석들을 포괄하는 개념이기 ..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 4일. 딥러닝 심화(3). Object Detection

오늘부터 김건영 강사님께서 강의를 하신다. 중독성 있는 스피치를 소유하고 계신다. 지~난번에 했었던 CNN(합성곱신경망)을 바탕으로 ,Vision Task를 중점적으로 배울 예정.  1. Computer Vision Task말 그대로, 시각적 요인들을 컴퓨터로 인식/처리하는 방법들의 총체를 가리킨다. 세부 분야로는 다음과 같은 것들이 있다.분야대표적인 데이터셋Image Classification이미지 분류MNISTFashion MNISTCIFAR-10/100Caltech-101/256ImageNetImageNette / ImageWoofObject Detection객체 탐지PASCAL VOCMS COCOOpen ImagesKITTIArgoverseGlobal WheatObjects365SKU-110KVi..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 3일. 딥러닝 심화(2). RAG

지난 줄거리.NLP 분야의 독보적 혁신을 몰고 온 Transformer 아키텍처.그러나 이를 바탕으로 등장한 LLM은모델이 학습하지 않은 내용을 전혀 예측하지 못한다는 문제가 발견되는데... 오늘을 LLM의 한계를 극복하기 위한 방법들.그중에서도 RAG에 대해 알아본다.     1. LangChainLangChain은 LLM 기반 개발을 지원하는 라이브러리로,강사님의 표현을 빌리자면 지금 가장 핫한 녀석이다. 기본적으로 LangChain에서는 세 가지 메시지를 사용한다.SystemMessage시스템의 롤과 환경을 정의함HumanMessage사람이 던지는 질문AIMessage인공지능의 대답 이렇게 역할을 분리하고 대화 자체를 구조화함으로써 관리가 용이해진다. 이녀석은 sklearn처럼 다양한 모듈들을 지원..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 2일. 딥러닝 심화(1). 딥러닝 기반 언어모델(LLM) 활용

오늘부터는 딥 러닝 모델링보다는 활용으로 주안점이 옮겨 간다.   언어 모델 LLM 딥 러닝을 바탕으로 만들어진 언어 모델을 LLM(Large Language Model)이라고 한다. LLM은 수천억~수조 개의 파라미터를 바탕으로 텍스트를 학습하여, 각종 언어적 상호작용을 할 수 있는 모델이다. 대표주자로는 그 유명한 ChatGPT나 colab의  Gemini같은 것들이 있다. 이런 LLM은 사실 최근까지 꽤 치명적인 단점을 가지고 있었고,불과 수 개월 전부터 이런 단점들을 극복할 방법들이 등장하기 시작했다. 따라서 오늘은 LLM의 특징, 한계, 극복방안에 대해 알아본다.            LLM의 등장 NLP(Natural Language Processing)란 컴퓨터로 하여금인간의 언어를 이해할 수..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 1일. 딥러닝 기초(4). 총정리 + CNN

오늘은 총복습 + CNN을 배운다. ADsP도 잘 끝났고, 2주 후 SQLD, 4주 후 경영정보시각화... 바쁘다 바빠.   CIRSP-DM 한기영 강사님께서 주구장창 강조하시는 CRISP-DM. 어제 ADsP 시험에서도 요긴하게 써먹었더랬다. Business Understanding비즈니스 문제 정의가설 수립데이터 분석의 방향성 수립 Data Understanding 원본식별분석을 위한 구조 만들기 : Data Dictionary 구성, x record가 하나의 자료(사건)임을 잊지말자.EDA & CDA : 단변량분석 / 이변량분석 등 활용 Data Preparation모든 셀은 값이 있어야 한다. : NaN이 없어야 한다.모든 값은 숫자여야 한다. : 가변수화를 진행해야 한다.숫자의 범위가 일치해야 ..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 9주차 5일. 딥러닝 기초(3). 성능관리

성능 튜닝의 기본 방법 튜닝의 기본 목표는 val 성능을 잘 뽑는 것이다. 우리가 추구하는 바는 모집단을 예측하는 거니까. 따라서 모델링의 최종 지향점은 일반화 성능이다. 이를 위하여 다양한 시도를 해 볼 수 있는데,learning_rate을 조절한다거나, epochs를 바꾼다거나, node를 늘릴 수도 있겠지. 딥러닝에서 우리가 조절해야 할 하이퍼파라미터는 다음과 같다.1. Epoch 와  learning_rate - 둘이 약한 Trade-off 관계인 것처럼 다루어야 한다. - Epoch가 부족하면 학습이 채 되지 않을 수 있고, 지나치면 과적함의 위험이 커진다.2. Hidden layer의 수, node의 수 - 늘어날수록 파라미터(가중치)의 개수가 늘어난다. - 파라미터의 수가 많다 = 연결이 많..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 9주차 4일. 딥러닝 기초(2). 분류 모델링(이진 분류, 다중 분류)

ADsP 시험도 점점 다가오는 해피(?) 할로윈. 힘내서 가보자.   히든 레이어 심화 지난 시간에, 우리는 law data의 모든 feature가 히든 레이어에 할당되는 것을 보았다. 이를 Fully Connected라고 하며, Dense를 활용하여 모델을 구성한다. 하지만 히든 레이어마다 서로 다른 feature를 할당할 수도 있다.이를테면, '집값에 영향을 주는 요인'을1. 방 수, 면적, 인테리어2. 지하철 접근성, 주변 편의시설, 공원 접근성으로 나눌 수 있다. 이를 Locally Connected라고 한다. 이것은 히든 레이어가,나름대로 law feature들을 조합하여 의미있는 새로운 feature를 만들어 낸 것이라고 볼 수 있다. 이런 측면에서 보았을 때,딥러닝에서는 히든 레이어를 생성하..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 9주차 3일. 딥러닝 기초(1). 회귀 모델링

5일간의 미니프로젝트가 끝나고 다시 수업으로 돌아갈 시간. 에이블스쿨의 3 Step 중 첫 단계의 마지막 교육 과정이다. 딥러닝 기초 나흘, 심화 나흘이 지나고 나면 두 번 연달아 미니프로젝트를 하고,에이블데이까지 마치면 첫 과정이 끝나는 거지. 자, 딥러닝 가보자.  딥러닝 개요 딥러닝은 기본적으로 인간의 신경망 구조에서 영감을 얻었다. 익히 알려진 대로,우리 신경망은 자극 - 반응의 과정을 연결해 주는 역할을 한다. 당연히 자극이 다르면 반응이 다른데,파블로프의 개 실험에서 나온 것처럼 우리는 학습에 의해 이 반응을 조절한다. 곱창을 싫어하는 사람이, 어쩌다 정말 맛있게 한 번 먹고 나면 곱창 보고 침이 고일 수 있는거지.  그것처럼 딥러닝 인공신경망은,학습에 따라 입력되는 자극(= 데이터)에 따른 ..

[ADsP] ADsP 요점정리 : Part 3. 통계 분석(3). 회귀분석

- 독립변수(x)가 종속변수(y)에 미치는 영향을 파악오차와 잔차의 차이 : 오차는 모집단 기준, 잔차는 표본집단 기준 - 회귀계수를 추정하는 방법 : 최소제곱법 잔차의 제곱합이 최소가 되는 회귀계수(a)와 절편(b)를 구하는 방법 - 회귀모형 평가 : R-square(모형으로 설명가능한 변동 / 총 변동)    ★ ★ ★ 선형성x와 y가 선형관계일 것등분산성잔차의 분산이 그르게 분포할 것정상성 = 정규성잔차가 정규분포의 특성을 가질 것Q-Q plot, 샤피로 윌그 검정, 히스토그램, 왜도/첨도 등으로 확인 가능독립성독립변수 간에는 상관관계가 없을 것   단순회귀하나의 독립변수만이 영향을 미침y = ax + b다중회귀독립변수가 둘 이상y = a1x1 + a2x2 + ... + anxn + b다항회귀독립변..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 8주차 2일. 머신러닝 - 비지도학습(2). 클러스터링 실습(K-Means, DBSCAN), 이상탐지

클러스터링 실습 실습용 데이터를 바탕으로 비지도학습을 진행해 본다. 실습용 데이터 생김새  1단계# 클러스터링에 사용할 데이터만 분리x = data.loc[:, ['Age', 'Income', 'Score']]# 클러스터링은 거리 기반이므로 스케일링scaler = MinMaxScaler()x_s = scaler.fit_transform(x)# 모델 생성, 클러스터 수(k) 판별을 위해 평가지표 저장kvalue = range(2, 21)inertia, sil_score = [], []for k in kvalue: model = KMeans(n_clusters=k, n_init='auto') model.fit(x_s) pred = model.predict(x_s) inertia.appe..