여러 회의를 거쳐 최종 발표안으로 머릿속에 그려보고 AI로 정리하면서 러프하게 정리

🎯 프로젝트 개요
프로젝트명: AI 기반 개발자 취업시장 분석 및 스펙 매칭 리포트
기획의도:
- 국내 IT 채용 시장은 빠르게 변하고 있으나, 구직자는 자신이 가진 기술이 실제 시장에서 얼마나 경쟁력 있는지 알기 어렵다.
- 본 프로젝트는 실제 채용 데이터를 기반으로 **“현재 시장이 요구하는 기술 트렌드”**와 **“사용자 개인 스펙의 매칭도”**를 분석하여,
취업 준비생이 현실적으로 어떤 역량을 보완해야 할지를 AI 리포트 형태로 제공한다. - 목표는 “AI가 만들어주는 실질적 취업 로드맵”이다.
🧭 기획 예상 모습 (서비스 흐름)
1️⃣ 홈/대시보드
- “현재 국내 취업 시장 기술 비중”을 보여주는 그래프
- AI, 백엔드, 프론트, 데이터 직군별 기술 비중 표시
2️⃣ 기술 검색 페이지
- 사용자가 “Java”, “Python” 등 입력
- 함께 요구되는 기술 스택(Spring, JPA, MySQL 등)을 통계로 표시
3️⃣ AI 활용 분류
- 공고를 AI개발 / AI활용 / AI무관으로 분류
- 각 분류별로 핵심 기술 Top 10 표시
4️⃣ 스펙 입력 페이지
- 사용자가 자신의 기술스택 / 경력 / 희망 직무 입력
- “현재 스펙과 시장 평균 매칭률”을 점수로 시각화
5️⃣ AI 개인 리포트
- LLM이 사용자 스펙과 시장 데이터 비교 후
“부족 기술”, “추천 학습 경로”, “지원 가능한 회사규모”를 리포트로 생성
6️⃣ 확장 영역 (기사·트렌드 RAG)
- 선택한 직무/기술 관련 최근 기사와 채용 트렌드 요약 제공
⚙️ 기능별 기술·DB·AI 활용·예상기간 요약표
Phase기능필요 기술DB 필요 여부AI 활용 도구예상 기간(인원 1명 기준)난이도
| 1. 시장 기술 비중 분석 | 공고 수집 → 기술 빈도 그래프 | Python (BeautifulSoup, Pandas), Matplotlib, Plotly | ✅ (PostgreSQL or SQLite) | CursorAI(크롤링 코드 보조), ChatGPT(정규식 정제) | 4~5일 | 중 |
| 2. 기술 입력 → 연관 기술 비중 | “Java → Spring/JPA” 등 co-occurrence 계산 | Python, Pandas, Numpy, D3.js(시각화) | ✅ | ChatGPT(관계분석 자동화, 키워드 필터링) | 4~5일 | 중상 |
| 3. AI활용도 분류 | 공고 → AI개발/AI활용/무관 분류 | Python, LLM분류 (GPT-4-turbo or Claude), Sklearn(Optional) | ✅ | OpenAI API, CursorAI | 3~4일 | 중상 |
| 4. 분류별 요구 기술 맵 | 각 카테고리별 Top 기술/프레임워크 | Pandas pivot, Chart.js | ✅ | ChatGPT(요약문 자동화) | 2~3일 | 중 |
| 5. 스펙 입력·매칭 | 사용자 스펙 → 공고 매칭 점수/갭 | FastAPI or Flask, Python dict scoring | ✅ | ChatGPT API(리포트 문장 생성) | 5~6일 | 상 |
| 6. 기사·트렌드 요약 (RAG) | 공고와 연관 뉴스/기사 분석 요약 | LangChain, FAISS, OpenAI API | ✅ (ChromaDB or FAISS) | CursorAI(LangChain 파이프라인), ChatGPT(요약문 생성) | 6~7일 | 상 |
| 7. 프론트엔드 통합 | React/Vue로 시각화 대시보드 제작 | React, Chart.js, Axios | ❌ | CursorAI (UI 템플릿 코드) | 5일 | 중 |
| 8. 배포 | Flask + Vercel or Streamlit 간단 서버 | Python, GitHub, Vercel | ❌ | CursorAI(배포 스크립트) | 1~2일 | 하 |
🧠 기술스택 총정리
구분선택 기술
| Backend | FastAPI / Flask (CursorAI로 자동화 용이) |
| Frontend | React.js / Streamlit (단순 그래프 기반) |
| Database | PostgreSQL (또는 SQLite로 간이 구현) |
| Data 분석 | Pandas, Numpy, Matplotlib, Plotly |
| LLM / AI API | OpenAI GPT-4-turbo, LangChain, FAISS, CursorAI |
| 시각화 | Chart.js, Plotly, D3.js |
| 배포(간이) | Streamlit Cloud / Vercel / Render |
| 협업 도구 | GitHub, Notion, Figma, CursorAI 공동작업 |
📊 팀 배분 제안 (5인 기준)
역할담당 Phase주요 기술
| 데이터 수집/정제 담당 | 1 | Python, Pandas, DB 입력 |
| 데이터 분석 담당 | 2, 4 | Python, Chart.js |
| AI 분류/리포트 담당 | 3, 5 | OpenAI API, LangChain |
| 프론트엔드 담당 | 7 | React, Axios, Plotly |
| 프로젝트 매니징/트렌드 리서치 담당 | 6 | 기사 RAG, 문서정리, 발표 |
⏰ 예상 총 일정 (4주)
주차주요 목표산출물
| 1주차 | 데이터 수집 및 구조 설계 | DB 스키마, 샘플 데이터 100건 |
| 2주차 | 기술 비중·연관 분석, AI 분류 구현 | 그래프, 기본 통계화면 |
| 3주차 | 스펙 매칭, 리포트 자동화 | 리포트 생성 API, LLM 결과 |
| 4주차 | RAG 기사요약, 프론트 통합 및 발표 | 완성형 대시보드 + 발표자료 |
💡 비전 및 기대 효과
- 단순한 데이터 통계가 아닌, **“AI가 제시하는 실질 취업 방향”**을 구현
- 팀원 전원이 공감하는 도메인으로 기획·AI·데이터 융합 역량을 동시에 학습
- 최종 결과물은 “AI 기반 취업 로드맵 생성기”로 발전 가능
📑 페이지 구성 요약 (최종안)
메뉴페이지명 (추천 제목)주요 기능설명AI 활용도구현 가능성
| 1 | Tech Demand Overview “국내 IT 기술 수요 한눈에 보기” |
전체 시장 기술 비중 그래프 | 언어(Java, Python, C, Go, Kotlin 등)별 요구 비중을 내림차순 막대그래프로 시각화. 상단엔 "전체 시장", 하단엔 Top 10 요약. | ChatGPT로 기술명 자동분류 / Keyword Extraction | ✅ 매우 높음 (단순 DB + Chart.js) |
| 2 | Stack by Role “직군별 핵심 스택 비교” |
프론트엔드 / 백엔드 / 풀스택 3가지 선택 필터 | 선택된 직군별로 “동시에 요구되는 기술 스택” 비중을 막대그래프로 표시 (예: 백엔드 선택 시 Spring, JPA, AWS 등). | ChatGPT로 공고 내 동시 등장 스택 추출 | ✅ 가능 (Phase2 구조 재활용) |
| 3 | AI Jobs Insight “AI 활용 기업 트렌드” |
AI개발 / AI활용 / 기타 직군 필터링 | 공고 텍스트 내 “AI 관련 키워드”로 필터링 후 분류 비율과 함께 요구 기술 표시. 추천 추가 카테고리: • AI개발 • AI활용(데이터분석, 자동화) • AI지원(Ops, Infra) — MLOps/모델배포 쪽 |
GPT-4 기반 문장 분류기로 분류 자동화 | ✅ 가능 (LLM 분류기만 구축) |
| 4-1 | Skill Match Finder “언어·DB·AI 기반 연관기술 탐색” |
대표언어, DB, AI를 드롭다운으로 선택 후 해당 기술군에서 자주 등장하는 ‘연관 기술’ 그래프 표시 | DB에 저장된 공고 데이터를 기준으로 co-occurrence 계산, 선택 기술의 연관도 표시 | GPT Embedding 또는 단순 통계분석 | ✅ 가능 (Python/Pandas 기반) |
| 4-2 | Company Ranking View “기업별 요구 기술 Top View” |
드롭다운에서 특정 회사 선택 → 하단에 Top4 형태로 기술스택 요구 그래프 표시 | 동일 화면 내 조회·추천 버튼 존재, 회사별 기술요구 상위 랭킹 표시 | ChatGPT로 기업별 요약문 생성 | ✅ 가능 (데이터만 있으면 구현 쉬움) |
| 5 | Trend & News Tracker “최신 IT 취업 뉴스 및 기술 트렌드 요약” |
IT 관련 뉴스·블로그를 RAG 기반으로 검색하고 요약 제공 | 특정 기술 검색 시 “최근 1개월 기사 요약 + 주요 키워드” 출력 | LangChain RAG 파이프라인 / GPT Summarization | ✅ 가능 (OpenAI + LangChain) |
🤖 AI 기술 맵 — 메뉴별 적용 기술 (핵심 레벨 정리)
메뉴 기능 요약 필요한 AI 구성요소 RAG 여부프롬프트 엔지니어링 / API추천 AI 모델 (현실 사용 가능)
| ① 시장 기술 비중 분석 (Tech Demand Overview) | 채용공고에서 언어·기술 키워드 추출 및 비중 분석 | LLM Keyword Extraction, NER (Named Entity Recognition) | ❌ (로컬 분석) | Prompt 예: “아래 문장에서 기술 스택만 추출해줘 (언어/프레임워크 구분)” | OpenAI GPT-4-Turbo or Claude 3 Sonnet |
| ② 직군별 기술 분석 (Stack by Role) | 프론트·백엔드·풀스택별 공고 클러스터링 및 주요 기술 파악 | Semantic Clustering + Embedding Search | ⚪ (내부DB 임베딩) | Embedding + Co-occurrence 기반, Prompt 예: “이 기술들과 함께 자주 등장하는 기술을 정리해줘” | OpenAI text-embedding-3-large, Sentence-BERT |
| ③ AI 직군 분류 (AI Jobs Insight) | 공고를 AI개발 / AI활용 / AI무관으로 자동 분류 | LLM Classification + Few-shot Prompting | ❌ | Prompt 예: “이 공고가 AI개발인지 AI활용인지 무관인지 판단하고 근거를 한 줄로 설명해줘.” | GPT-4-Turbo, Claude 3 Opus, Cohere Command-R+ |
| ④-1 연관 기술 탐색 (Skill Match Finder) | 특정 언어·DB·AI기술을 기준으로 연관 기술 도출 | Embedding Vector Search + Similarity Ranking | ✅ (FAISS or Chroma) | “유사 기술” / “동시 등장 기술” / “대체 기술” 질의 템플릿 | OpenAI Embeddings + LangChain Retriever |
| ④-2 기업별 요구 기술 비교 (Company Ranking View) | 선택한 기업별 Top 기술 및 요구스택 분석 | RAG + GPT Summarization | ✅ | Prompt 예: “이 기업이 가장 많이 언급한 기술 Top 5와 이유를 요약해줘.” | LangChain + GPT-4-Turbo, Mistral 7B (local inference 가능) |
| ⑤ 최신 트렌드·뉴스 요약 (Trend & News Tracker) | IT 채용 관련 뉴스·블로그 요약 및 핵심 키워드 추출 | RAG + LLM Summarization Pipeline | ✅ (기사 DB or API) | Multi-Prompt 구조: “기사 요약 → 핵심 키워드 → 시장 변화 요약” | GPT-4-Turbo + LangChain + OpenAI Search API |
| ⑥ AI 리포트 생성 (AI Personal Report) | 사용자 스펙 → 시장 데이터 비교 → 개인화 리포트 생성 | LLM Reasoning + Prompt Chaining + Dynamic Template | ⚪ (내부DB 참조) | Chain-of-Thought Prompt / Persona Prompt | GPT-4-Turbo / Claude 3 Opus (문장력 중심) |
🧠 보충 설명 (팀원들에게 설명할 때 이렇게 요약 가능)
AI 기술 분류설명프로젝트 적용 위치
| RAG (Retrieval-Augmented Generation) | 외부 데이터(기사, 공고 DB)를 벡터로 저장하고, 질문이 들어올 때 관련 정보를 찾아 LLM에 보내는 방식 | 메뉴 ④-1, ④-2, ⑤ |
| LLM Prompt Engineering | LLM이 정확한 형태의 답을 내도록 프롬프트를 설계 / Few-shot 예시 포함 | 전 메뉴 공통 (특히 ①, ③, ⑥) |
| Embedding Model (유사도 검색) | 텍스트 간 의미적 거리를 수치화 → 연관 기술 탐색 | 메뉴 ②, ④-1 |
| LLM Classification / Summarization | 문서를 분류하거나 핵심 내용을 요약 | 메뉴 ③, ⑤ |
| Prompt Chaining | 여러 단계 프롬프트를 연결하여 복잡한 결과 생성 | 메뉴 ⑥ (AI 리포트) |
| LangChain Pipeline | RAG + LLM 요약 구조 프레임워크 | 메뉴 ④-2, ⑤ |
| AI IDE 자동화 (Coding Assist) | Cursor AI 를 활용해 API / DB / 분석 코드 자동생성 | 전 개발 단계 지원 |
⚙️ 요약 문장 (PPT 한 줄용)
“각 페이지는 RAG, LLM, Embedding 검색, Prompt Chaining 등 AI 핵심기술을 조합해 데이터 분석 → 요약 → 개인화 리포트 생성으로 이어지는 End-to-End AI 워크플로우를 구현한다.”
🧱 프로젝트 전체 기술 구조 (Full Tech Architecture Overview)
🟦 1️⃣ Data Layer (데이터 수집·정제 계층)
“시장의 원천 데이터를 확보하고 분석 가능한 형태로 변환”
영역주요 기술설명
| 데이터 수집 (Crawling/API) | BeautifulSoup, Requests, Saramin API, JobKorea API | 채용 공고, 기업정보, 기술명 데이터 확보 |
| 데이터 전처리 | Python, Pandas, Regex, NLTK | 불필요 문장 제거, 기술명 정규화, 중복 제거 |
| 데이터 저장(DB) | PostgreSQL / SQLite | 채용공고·기술스택·회사정보 저장, 검색용 인덱싱 |
| 임베딩 저장소 (Vector DB) | FAISS / Chroma | RAG용 문서 벡터 저장 및 검색 |
🟩 2️⃣ AI Layer (분석·생성 계층)
“LLM, Embedding, RAG, Prompt Engineering으로 시장 트렌드와 개인 분석 수행”
구분기술 / 도구주요 역할
| LLM 모델 | GPT-4-turbo / Claude 3 Sonnet / Mistral 7B | 텍스트 요약, 기술분류, 리포트 생성 |
| RAG Framework | LangChain | 문서 검색 → LLM 연결 (기사, 기업정보, 기술 연관분석) |
| Embedding Model | text-embedding-3-large / Sentence-BERT | 기술·직무 간 유사도 계산, 연관기술 탐색 |
| Prompt Engineering | Few-Shot, Chain-of-Thought, Dynamic Template | AI 분석의 정확도 향상, 리포트 구조 제어 |
| AI API 활용 | OpenAI API / HuggingFace API | 텍스트 분석, 요약, 분류, 생성 수행 |
| AI 개발환경 | Cursor AI | 프롬프트 튜닝, 코드 자동생성, 모델 실험 |
🟨 3️⃣ Application Layer (서비스 계층)
“분석 결과를 시각화·제공하는 실제 서비스 구현 파트”
구성요소기술 / 도구설명
| Backend | FastAPI / Flask | 데이터 API, AI 결과 라우팅 |
| Frontend | React.js / Streamlit | 사용자 인터페이스 및 시각화 화면 |
| 시각화 | Chart.js / Plotly / D3.js | 기술비중 그래프, 매칭률 시각화 |
| API 연동 | Axios / Fetch | 백엔드 ↔ 프론트 통신 |
| 배포환경 | Vercel / Streamlit Cloud / Render | 서비스 MVP 배포 |
| 협업 및 버전관리 | GitHub / Notion / Figma | 코드·디자인·기획 통합 관리 |
🕐 1주차 — 기획 및 데이터 설계 (Project Planning & Data Setup)
목표: 프로젝트 방향 확정 및 데이터 구조 설계
주요 내용세부 작업
| ✅ 주제 구체화 | 시장조사 대상 확정 (취업시장 / 기술 트렌드) |
| ✅ 요구사항 정의 | 기능별 화면 및 메뉴 구성 (6개 페이지) 확정 |
| ✅ 데이터 수집 설계 | 크롤링 대상(채용공고, 기사 등) 및 DB 구조 초안 |
| ✅ 역할 분담 | 팀별 담당 (AI 분석 / 프론트 / 백엔드 / 시각화 / 문서) |
| 🔧 기술 세팅 | Python, MySQL, GitHub, Cursor, Notion 환경 설정 |
📆 개발 일정 (남은 4주 재구성 버전)
프로젝트명: AI 기반 취업 시장 기술 트렌드 분석 서비스
기간: 2~5주차 (총 4주간)
🧩 2주차 — 데이터 수집 및 구조 설계 (Data Collection & Structuring)
목표: 채용 데이터 확보 + DB 구축 + 기본 전처리 완료
주요 내용세부 작업
| ✅ 데이터 수집 | 채용 사이트 크롤링 or API 연동 (Saramin, JobKorea 등) |
| ✅ 데이터 정제 | 불필요 문장 제거, 기술명 정규화 (Python + Pandas) |
| ✅ DB 구축 | MySQL 테이블 설계 (직무, 기술, 회사 정보) |
| ✅ 샘플데이터 입력 | 100~200건 예시 데이터로 통계 실험 |
| 🔧 환경 세팅 | Git 브랜치 전략 / Cursor 환경 정리 / DB 연결 테스트 |
⚙️ 3주차 — AI 분석 모듈 구현 (AI Processing Layer)
목표: AI 기반 기술 분류 / 트렌드 분석 / 연관 기술 추출
주요 내용세부 작업
| ✅ LLM 연동 | GPT API를 활용한 기술명 분류, 직무별 분류 기능 구현 |
| ✅ Embedding | 기술·직무 유사도 분석 (FAISS or LangChain 기반) |
| ✅ 프롬프트 설계 | “AI 개발 / AI 활용 / AI 무관” 자동 분류 Prompt 튜닝 |
| ✅ RAG 기초 | 기사·기술 트렌드 데이터 검색 및 요약 테스트 |
| 🔧 검증 | 결과 정확도·중복률 테스트 및 튜닝 |
💻 4주차 — 웹 UI 및 시각화 (Web Dashboard & Visualization)
목표: 분석결과를 사용자에게 시각적으로 보여주는 대시보드 구축
주요 내용세부 작업
| ✅ 프론트 구현 | Streamlit or Flask + Chart.js 기반 화면 구성 |
| ✅ 페이지 구성 | ① 전체시장 ② 기술별 분석 ③ AI 분류 ④ 리포트 ⑤ 트렌드 |
| ✅ 시각화 | 기술 비중·연관도·매칭률 등 그래프 출력 |
| ✅ API 연결 | 백엔드 ↔ 프론트 데이터 전달 테스트 |
| 🔧 리팩토링 | 데이터 로딩·쿼리 속도 개선 및 버그 수정 |
🧾 5주차 — 통합·문서화 및 발표 준비 (Final Integration & Documentation)
목표: 완성도 점검 + 발표자료 및 리포트 작성
주요 내용세부 작업
| ✅ 통합 테스트 | 전체 기능 연동 점검 (데이터 → 분석 → 시각화) |
| ✅ 문서 정리 | 시스템 구조도 / ERD / 시연 시나리오 작성 |
| ✅ 결과 분석 | AI 분석 결과 vs 실제 트렌드 비교, 한계점 기술 |
| ✅ 발표자료 제작 | PPT / 시연 영상 / 시나리오 정리 |
| ✅ 리허설 | 팀별 발표 파트 점검 및 피드백 반영 |
'학원 TEAM 프로젝트 > 심화과정 Team Project(최종)' 카테고리의 다른 글
| 기록 4-1 . PostgreSQL + Chroma + FastAPI 환경 구성 정리 (0) | 2025.11.11 |
|---|---|
| 기록 4 . 환경설정의 고민 (vectorDB, postgreSQL) (0) | 2025.11.11 |
| 기록 3 . 협업준비 (3) | 2025.11.11 |
| 기록 2. 기획 발표 PPT 정리. (0) | 2025.11.11 |
| 심화과정 팀플 시작전 환경설정. (0) | 2025.11.07 |