2024/11 7

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 13주차 5일. IT 인프라(5). 서비스 요구사항 분석 및 인프라 설계

화요일 점심,죽어가던 냉장고 속 양파를 썰다가,갑자기 허리가 뜨끔하면서 주저앉았다. 오랜만에 느끼는 척추 내려앉는 느낌이란... 와.... 3년 전 디스크 수술 이후 최대 위기였다. 엉금엉금 기어서 급하게 조퇴 버튼을 누르고,내리 이틀을 더 침대에 누워만 있었다..... ㅠ사실 조금은 좋았다. 에이블스쿨 하면서 살이 꽤 쪘는데 그래서인듯? 앞으로도 한 일주일은 오래 앉아있지 말라더라. 덕분에 내일 경영정보 시각화 시험도 못 간다. 시험장이 부산이거든. 뭐... 이왕 일어난 일은 어쩔 수 없고,빠진 분량 복습이나 열심히 해야지. 디스크 환우분들 허리 관리 잘 합시다. 일단 교안 + 검색을 통해 화요일 오후 ~ 목요일 과정을 훑어본다. 다만 실습 부분은 해 봐야 알 수 있는 만큼, 이론 중심으로 정리해보자...

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 13주차 1일. IT 인프라(1). 스위치 네트워크, IP 네트워크

4차 5차 미프와 에이블데이까지 겪고 나서 하는 오랜만의 포스팅.  포스팅 할 거리가 넘쳐난다. 와중에 이번주 토요일에는 경영정보 시각화 필기시험이 있다 ㅎㅎ 화이팅     IT 인프라 정의IT로 서비스하기 위한 모든 기반시설(자원)을 의미한다.네트워크서버데이터베이스정보 보안시스템 소프트웨어 이것들은 세 가지의 주요 구성요소를 가지고 있다.하드웨어(HW)물리적 장비PC, CPU, 서버, 스토리지, 라우터, 스위치소프트웨어(SW)프로그램OS, Database, MS office네트워크장비를 연결하는 장비 또는 연결 그 자체공유기(라우터), 스위치*, 방화벽, 케이블 * 라우터, 스위치 등이 하드웨어에도 있고 네트워크에도 있다.네트워크는 HW, SW를 가리지 않고 연결을 담당하는 녀석들을 포괄하는 개념이기 ..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 4일. 딥러닝 심화(3). Object Detection

오늘부터 김건영 강사님께서 강의를 하신다. 중독성 있는 스피치를 소유하고 계신다. 지~난번에 했었던 CNN(합성곱신경망)을 바탕으로 ,Vision Task를 중점적으로 배울 예정.  1. Computer Vision Task말 그대로, 시각적 요인들을 컴퓨터로 인식/처리하는 방법들의 총체를 가리킨다. 세부 분야로는 다음과 같은 것들이 있다.분야대표적인 데이터셋Image Classification이미지 분류MNISTFashion MNISTCIFAR-10/100Caltech-101/256ImageNetImageNette / ImageWoofObject Detection객체 탐지PASCAL VOCMS COCOOpen ImagesKITTIArgoverseGlobal WheatObjects365SKU-110KVi..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 3일. 딥러닝 심화(2). RAG

지난 줄거리.NLP 분야의 독보적 혁신을 몰고 온 Transformer 아키텍처.그러나 이를 바탕으로 등장한 LLM은모델이 학습하지 않은 내용을 전혀 예측하지 못한다는 문제가 발견되는데... 오늘을 LLM의 한계를 극복하기 위한 방법들.그중에서도 RAG에 대해 알아본다.     1. LangChainLangChain은 LLM 기반 개발을 지원하는 라이브러리로,강사님의 표현을 빌리자면 지금 가장 핫한 녀석이다. 기본적으로 LangChain에서는 세 가지 메시지를 사용한다.SystemMessage시스템의 롤과 환경을 정의함HumanMessage사람이 던지는 질문AIMessage인공지능의 대답 이렇게 역할을 분리하고 대화 자체를 구조화함으로써 관리가 용이해진다. 이녀석은 sklearn처럼 다양한 모듈들을 지원..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 2일. 딥러닝 심화(1). 딥러닝 기반 언어모델(LLM) 활용

오늘부터는 딥 러닝 모델링보다는 활용으로 주안점이 옮겨 간다.   언어 모델 LLM 딥 러닝을 바탕으로 만들어진 언어 모델을 LLM(Large Language Model)이라고 한다. LLM은 수천억~수조 개의 파라미터를 바탕으로 텍스트를 학습하여, 각종 언어적 상호작용을 할 수 있는 모델이다. 대표주자로는 그 유명한 ChatGPT나 colab의  Gemini같은 것들이 있다. 이런 LLM은 사실 최근까지 꽤 치명적인 단점을 가지고 있었고,불과 수 개월 전부터 이런 단점들을 극복할 방법들이 등장하기 시작했다. 따라서 오늘은 LLM의 특징, 한계, 극복방안에 대해 알아본다.            LLM의 등장 NLP(Natural Language Processing)란 컴퓨터로 하여금인간의 언어를 이해할 수..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 10주차 1일. 딥러닝 기초(4). 총정리 + CNN

오늘은 총복습 + CNN을 배운다. ADsP도 잘 끝났고, 2주 후 SQLD, 4주 후 경영정보시각화... 바쁘다 바빠.   CIRSP-DM 한기영 강사님께서 주구장창 강조하시는 CRISP-DM. 어제 ADsP 시험에서도 요긴하게 써먹었더랬다. Business Understanding비즈니스 문제 정의가설 수립데이터 분석의 방향성 수립 Data Understanding 원본식별분석을 위한 구조 만들기 : Data Dictionary 구성, x record가 하나의 자료(사건)임을 잊지말자.EDA & CDA : 단변량분석 / 이변량분석 등 활용 Data Preparation모든 셀은 값이 있어야 한다. : NaN이 없어야 한다.모든 값은 숫자여야 한다. : 가변수화를 진행해야 한다.숫자의 범위가 일치해야 ..

[TIL] [KT AIVLE School] 에이블스쿨 DX 트랙 9주차 5일. 딥러닝 기초(3). 성능관리

성능 튜닝의 기본 방법 튜닝의 기본 목표는 val 성능을 잘 뽑는 것이다. 우리가 추구하는 바는 모집단을 예측하는 거니까. 따라서 모델링의 최종 지향점은 일반화 성능이다. 이를 위하여 다양한 시도를 해 볼 수 있는데,learning_rate을 조절한다거나, epochs를 바꾼다거나, node를 늘릴 수도 있겠지. 딥러닝에서 우리가 조절해야 할 하이퍼파라미터는 다음과 같다.1. Epoch 와  learning_rate - 둘이 약한 Trade-off 관계인 것처럼 다루어야 한다. - Epoch가 부족하면 학습이 채 되지 않을 수 있고, 지나치면 과적함의 위험이 커진다.2. Hidden layer의 수, node의 수 - 늘어날수록 파라미터(가중치)의 개수가 늘어난다. - 파라미터의 수가 많다 = 연결이 많..