메뉴버튼

전체글

엔지닉 반도체 데이터 분석 스터디 19기 참여후기

https://community.weport.co.kr/community/106120514



이번 엔지닉 반도체 데이터 분석 스터디 19기에 참여하며 데이터 분석의 기초부터 실제 반도체 산업 데이터에 적용하는 방법까지 폭넓게 학습할 수 있었다.

 

첫째 날에는 모집단과 표본, 중심경향치(평균, 중앙값, 최빈값) 와 산포(분산, 표준편차) 의 개념을 배우며 데이터의 기초적인 특성을 이해했다. 이 과정에서 단순히 데이터를 보는 것이 아니라 데이터가 전달하는 ‘의미’를 읽는 능력을 키울 수 있었다. 반도체 공정 데이터에서 중심 위치와 산포를 해석하는 방법도 함께 익혀, 이론이 실무에 어떻게 활용되는지를 체감했다.

 

둘째 날에는 이산형 데이터의 다양한 분포(베르누이, 이항, 다항, 포아송 등)를 공부했다. 특히 포아송 분포가 반도체 결함 분석에서 얼마나 중요한지 사례로 확인하며, 이론적 지식을 실제 품질 관리에 연결하는 법을 배웠다. 복잡해 보였던 확률분포들이 반도체 공정의 오류 횟수나 불량률 예측에 매우 실용적임을 이해하게 됐다.

 

셋째 날에는 연속형 데이터와 범주형 데이터를 다뤘다. 균등분포, 지수분포, 정규분포의 수학적 특성과 적용 방법을 공부했고, 표준정규분포(Z분포) 로 데이터를 변환하는 기법도 익혔다. 특히 DRAM Latency(지연 시간) 스펙 사례를 통해 정규분포가 반도체 성능과 품질 평가에 얼마나 필수적인지 깨달았다. 또한, 범주형 데이터의 수치 매핑 기법을 통해 비수치 데이터를 분석에 적용하는 방법도 배웠다.

 

이번 스터디를 통해 느낀 가장 큰 성과는, 데이터 분석이 단순한 숫자 해석이 아니라 공정 최적화, 품질 관리, 불량 예측 등 반도체 산업의 실제 문제 해결 도구라는 점이었다.

 

부족했던 점은 복합적인 확률분포와 통계적 가설검정(t-분포, 카이제곱분포 등)에 대한 직관적인 이해가 아직 부족하다는 것이다. 앞으로 추가적인 문제 풀이와 실습을 통해 이 부분을 보완할 계획이다.

 

향후 계획으로는 이번 스터디에서 익힌 데이터 분석 역량을 토대로 반도체 품질관리, 공정 데이터 분석 관련 직무에 지원할 예정이다. 특히 공정에서 수집되는 다양한 데이터를 효율적으로 분석하고, 데이터 기반으로 문제를 해결하는 역량을 개발하는 데 집중할 것이다.

 

이번 엔지닉 반도체 데이터 분석 스터디는 취업 준비뿐 아니라, 앞으로 반도체 분야에서 데이터 분석 능력을 성장시키는 데 있어 중요한 시작점이 되었다. 앞으로도 꾸준히 학습하고, 현장에서 실질적인 가치를 만들어내는 엔지니어로 성장할 것이다.

신고하기
close-icon

작성자 익명

신고글 엔지닉 반도체 데이터 분석 스터디 19기 참여후기

사유선택
  • check-icon
    욕설/비하 발언
  • check-icon
    음란성
  • check-icon
    홍보성 콘텐츠 및 도배글
  • check-icon
    개인정보 노출
  • check-icon
    특정인 비방
  • check-icon
    기타

허위 신고의 경우 서비스 이용제한과 같은
불이익을 받으실 수 있습니다.

댓글 0