반도체 공정을 공부하는 과정에서 수많은 변수들이 동시에 변화하고, 그 결과가 공정 품질에 직접적인 영향을 미친다는 점을 느끼게 됩니다. 이러한 데이터를 보다 체계적으로 해석하고, 단순한 수치 확인을 넘어 의미 있는 인사이트를 도출할 수 있는 역량을 갖추고자 이번 스터디에 참여하게 되었습니다.
이번 교육은 생성형 AI 활용부터 Python 개발 환경 구축, 그리고 데이터 분석 기초까지 단계적으로 구성되어 있어 전반적인 흐름을 이해하는 데 도움이 되었습니다.
1일차에는 생성형 AI를 활용한 코드 작성과 Python의 기본 개념을 학습하며, 데이터 분석 도구로서의 활용 가능성을 이해할 수 있었습니다. AI를 활용해 코드 작성을 보완할 수 있다는 점에서 실무 적용 가능성도 높다고 느꼈습니다.
2일차에는 Anaconda를 활용한 개발 환경 구축과 가상환경 관리 방법을 실습하였습니다. conda를 통해 독립적인 환경을 구성하고, JupyterLab과 ipykernel을 연동하여 분석 환경을 직접 구축해보며 데이터 분석을 수행하기 위한 기본적인 기반을 마련할 수 있었습니다. 또한 Jupyter Notebook의 셀 기반 실행 방식과 단축키 활용을 통해 코드 작성 효율을 높일 수 있다는 점도 익혔습니다.
3일차에는 파이썬의 기본 문법과 데이터 처리 구조를 학습하였습니다. 변수, 데이터 타입, 리스트, 딕셔너리와 같은 핵심 개념을 바탕으로 데이터가 어떻게 저장되고 활용되는지를 이해할 수 있었으며, Pandas를 활용하여 데이터를 불러오고 정렬, 필터링, 통계 처리를 수행하는 과정이 실제 데이터 분석과 밀접하게 연결된다는 점을 느낄 수 있었습니다. 특히 Date, Step, Value, USL, TGT, LSL과 같은 공정 데이터를 기반으로 분석 방향을 고민해보며 데이터 해석의 중요성을 다시 한번 확인할 수 있었습니다.
이번 스터디는 단순한 이론 학습을 넘어, 직접 환경을 구축하고 데이터를 다루어보는 경험을 통해 실질적인 이해를 높일 수 있었던 유익한 교육이었습니다. 앞으로는 이번에 배운 내용을 바탕으로 변수 간 관계 분석, 이상 데이터 탐지, 데이터 시각화 등 보다 심화된 분석 기법을 학습하고, 이를 실제 반도체 공정 데이터에 적용해보며 데이터 기반으로 공정을 해석할 수 있는 역량을 지속적으로 발전시켜 나가고자 합니다.
