여러 회의를 거쳐 최종 발표안으로 머릿속에 그려보고 AI로 정리하면서 러프하게 정리

🎯 프로젝트 개요

프로젝트명: AI 기반 개발자 취업시장 분석 및 스펙 매칭 리포트
기획의도:

  • 국내 IT 채용 시장은 빠르게 변하고 있으나, 구직자는 자신이 가진 기술이 실제 시장에서 얼마나 경쟁력 있는지 알기 어렵다.
  • 본 프로젝트는 실제 채용 데이터를 기반으로 **“현재 시장이 요구하는 기술 트렌드”**와 **“사용자 개인 스펙의 매칭도”**를 분석하여,
    취업 준비생이 현실적으로 어떤 역량을 보완해야 할지를 AI 리포트 형태로 제공한다.
  • 목표는 “AI가 만들어주는 실질적 취업 로드맵”이다.

🧭 기획 예상 모습 (서비스 흐름)

1️⃣ 홈/대시보드

  • “현재 국내 취업 시장 기술 비중”을 보여주는 그래프
  • AI, 백엔드, 프론트, 데이터 직군별 기술 비중 표시

2️⃣ 기술 검색 페이지

  • 사용자가 “Java”, “Python” 등 입력
  • 함께 요구되는 기술 스택(Spring, JPA, MySQL 등)을 통계로 표시

3️⃣ AI 활용 분류

  • 공고를 AI개발 / AI활용 / AI무관으로 분류
  • 각 분류별로 핵심 기술 Top 10 표시

4️⃣ 스펙 입력 페이지

  • 사용자가 자신의 기술스택 / 경력 / 희망 직무 입력
  • “현재 스펙과 시장 평균 매칭률”을 점수로 시각화

5️⃣ AI 개인 리포트

  • LLM이 사용자 스펙과 시장 데이터 비교 후
    “부족 기술”, “추천 학습 경로”, “지원 가능한 회사규모”를 리포트로 생성

6️⃣ 확장 영역 (기사·트렌드 RAG)

  • 선택한 직무/기술 관련 최근 기사와 채용 트렌드 요약 제공

⚙️ 기능별 기술·DB·AI 활용·예상기간 요약표

Phase기능필요 기술DB 필요 여부AI 활용 도구예상 기간(인원 1명 기준)난이도
1. 시장 기술 비중 분석 공고 수집 → 기술 빈도 그래프 Python (BeautifulSoup, Pandas), Matplotlib, Plotly ✅ (PostgreSQL or SQLite) CursorAI(크롤링 코드 보조), ChatGPT(정규식 정제) 4~5일
2. 기술 입력 → 연관 기술 비중 “Java → Spring/JPA” 등 co-occurrence 계산 Python, Pandas, Numpy, D3.js(시각화) ChatGPT(관계분석 자동화, 키워드 필터링) 4~5일 중상
3. AI활용도 분류 공고 → AI개발/AI활용/무관 분류 Python, LLM분류 (GPT-4-turbo or Claude), Sklearn(Optional) OpenAI API, CursorAI 3~4일 중상
4. 분류별 요구 기술 맵 각 카테고리별 Top 기술/프레임워크 Pandas pivot, Chart.js ChatGPT(요약문 자동화) 2~3일
5. 스펙 입력·매칭 사용자 스펙 → 공고 매칭 점수/갭 FastAPI or Flask, Python dict scoring ChatGPT API(리포트 문장 생성) 5~6일
6. 기사·트렌드 요약 (RAG) 공고와 연관 뉴스/기사 분석 요약 LangChain, FAISS, OpenAI API ✅ (ChromaDB or FAISS) CursorAI(LangChain 파이프라인), ChatGPT(요약문 생성) 6~7일
7. 프론트엔드 통합 React/Vue로 시각화 대시보드 제작 React, Chart.js, Axios CursorAI (UI 템플릿 코드) 5일
8. 배포 Flask + Vercel or Streamlit 간단 서버 Python, GitHub, Vercel CursorAI(배포 스크립트) 1~2일

🧠 기술스택 총정리

구분선택 기술
Backend FastAPI / Flask (CursorAI로 자동화 용이)
Frontend React.js / Streamlit (단순 그래프 기반)
Database PostgreSQL (또는 SQLite로 간이 구현)
Data 분석 Pandas, Numpy, Matplotlib, Plotly
LLM / AI API OpenAI GPT-4-turbo, LangChain, FAISS, CursorAI
시각화 Chart.js, Plotly, D3.js
배포(간이) Streamlit Cloud / Vercel / Render
협업 도구 GitHub, Notion, Figma, CursorAI 공동작업

 


📊 팀 배분 제안 (5인 기준)

역할담당 Phase주요 기술
데이터 수집/정제 담당 1 Python, Pandas, DB 입력
데이터 분석 담당 2, 4 Python, Chart.js
AI 분류/리포트 담당 3, 5 OpenAI API, LangChain
프론트엔드 담당 7 React, Axios, Plotly
프로젝트 매니징/트렌드 리서치 담당 6 기사 RAG, 문서정리, 발표

⏰ 예상 총 일정 (4주)

주차주요 목표산출물
1주차 데이터 수집 및 구조 설계 DB 스키마, 샘플 데이터 100건
2주차 기술 비중·연관 분석, AI 분류 구현 그래프, 기본 통계화면
3주차 스펙 매칭, 리포트 자동화 리포트 생성 API, LLM 결과
4주차 RAG 기사요약, 프론트 통합 및 발표 완성형 대시보드 + 발표자료

💡 비전 및 기대 효과

  • 단순한 데이터 통계가 아닌, **“AI가 제시하는 실질 취업 방향”**을 구현
  • 팀원 전원이 공감하는 도메인으로 기획·AI·데이터 융합 역량을 동시에 학습
  • 최종 결과물은 “AI 기반 취업 로드맵 생성기”로 발전 가능

📑 페이지 구성 요약 (최종안)

메뉴페이지명 (추천 제목)주요 기능설명AI 활용도구현 가능성
1 Tech Demand Overview
“국내 IT 기술 수요 한눈에 보기”
전체 시장 기술 비중 그래프 언어(Java, Python, C, Go, Kotlin 등)별 요구 비중을 내림차순 막대그래프로 시각화. 상단엔 "전체 시장", 하단엔 Top 10 요약. ChatGPT로 기술명 자동분류 / Keyword Extraction ✅ 매우 높음
(단순 DB + Chart.js)
2 Stack by Role
“직군별 핵심 스택 비교”
프론트엔드 / 백엔드 / 풀스택 3가지 선택 필터 선택된 직군별로 “동시에 요구되는 기술 스택” 비중을 막대그래프로 표시 (예: 백엔드 선택 시 Spring, JPA, AWS 등). ChatGPT로 공고 내 동시 등장 스택 추출 ✅ 가능
(Phase2 구조 재활용)
3 AI Jobs Insight
“AI 활용 기업 트렌드”
AI개발 / AI활용 / 기타 직군 필터링 공고 텍스트 내 “AI 관련 키워드”로 필터링 후 분류 비율과 함께 요구 기술 표시.
추천 추가 카테고리:
• AI개발
• AI활용(데이터분석, 자동화)
AI지원(Ops, Infra) — MLOps/모델배포 쪽
GPT-4 기반 문장 분류기로 분류 자동화 ✅ 가능
(LLM 분류기만 구축)
4-1 Skill Match Finder
“언어·DB·AI 기반 연관기술 탐색”
대표언어, DB, AI를 드롭다운으로 선택 후 해당 기술군에서 자주 등장하는 ‘연관 기술’ 그래프 표시 DB에 저장된 공고 데이터를 기준으로 co-occurrence 계산, 선택 기술의 연관도 표시 GPT Embedding 또는 단순 통계분석 ✅ 가능
(Python/Pandas 기반)
4-2 Company Ranking View
“기업별 요구 기술 Top View”
드롭다운에서 특정 회사 선택 → 하단에 Top4 형태로 기술스택 요구 그래프 표시 동일 화면 내 조회·추천 버튼 존재, 회사별 기술요구 상위 랭킹 표시 ChatGPT로 기업별 요약문 생성 ✅ 가능
(데이터만 있으면 구현 쉬움)
5 Trend & News Tracker
“최신 IT 취업 뉴스 및 기술 트렌드 요약”
IT 관련 뉴스·블로그를 RAG 기반으로 검색하고 요약 제공 특정 기술 검색 시 “최근 1개월 기사 요약 + 주요 키워드” 출력 LangChain RAG 파이프라인 / GPT Summarization ✅ 가능
(OpenAI + LangChain)

🤖 AI 기술 맵 — 메뉴별 적용 기술 (핵심 레벨 정리)

메뉴                            기능 요약                 필요한 AI 구성요소             RAG            여부프롬프트 엔지니어링 /           API추천 AI 모델 (현실 사용 가능)

 

① 시장 기술 비중 분석 (Tech Demand Overview) 채용공고에서 언어·기술 키워드 추출 및 비중 분석 LLM Keyword Extraction, NER (Named Entity Recognition) ❌ (로컬 분석) Prompt 예: “아래 문장에서 기술 스택만 추출해줘 (언어/프레임워크 구분)” OpenAI GPT-4-Turbo or Claude 3 Sonnet
② 직군별 기술 분석 (Stack by Role) 프론트·백엔드·풀스택별 공고 클러스터링 및 주요 기술 파악 Semantic Clustering + Embedding Search ⚪ (내부DB 임베딩) Embedding + Co-occurrence 기반, Prompt 예: “이 기술들과 함께 자주 등장하는 기술을 정리해줘” OpenAI text-embedding-3-large, Sentence-BERT
③ AI 직군 분류 (AI Jobs Insight) 공고를 AI개발 / AI활용 / AI무관으로 자동 분류 LLM Classification + Few-shot Prompting Prompt 예: “이 공고가 AI개발인지 AI활용인지 무관인지 판단하고 근거를 한 줄로 설명해줘.” GPT-4-Turbo, Claude 3 Opus, Cohere Command-R+
④-1 연관 기술 탐색 (Skill Match Finder) 특정 언어·DB·AI기술을 기준으로 연관 기술 도출 Embedding Vector Search + Similarity Ranking ✅ (FAISS or Chroma) “유사 기술” / “동시 등장 기술” / “대체 기술” 질의 템플릿 OpenAI Embeddings + LangChain Retriever
④-2 기업별 요구 기술 비교 (Company Ranking View) 선택한 기업별 Top 기술 및 요구스택 분석 RAG + GPT Summarization Prompt 예: “이 기업이 가장 많이 언급한 기술 Top 5와 이유를 요약해줘.” LangChain + GPT-4-Turbo, Mistral 7B (local inference 가능)
⑤ 최신 트렌드·뉴스 요약 (Trend & News Tracker) IT 채용 관련 뉴스·블로그 요약 및 핵심 키워드 추출 RAG + LLM Summarization Pipeline ✅ (기사 DB or API) Multi-Prompt 구조: “기사 요약 → 핵심 키워드 → 시장 변화 요약” GPT-4-Turbo + LangChain + OpenAI Search API
⑥ AI 리포트 생성 (AI Personal Report) 사용자 스펙 → 시장 데이터 비교 → 개인화 리포트 생성 LLM Reasoning + Prompt Chaining + Dynamic Template ⚪ (내부DB 참조) Chain-of-Thought Prompt / Persona Prompt GPT-4-Turbo / Claude 3 Opus (문장력 중심)

🧠 보충 설명 (팀원들에게 설명할 때 이렇게 요약 가능)

AI 기술 분류설명프로젝트 적용 위치
RAG (Retrieval-Augmented Generation) 외부 데이터(기사, 공고 DB)를 벡터로 저장하고, 질문이 들어올 때 관련 정보를 찾아 LLM에 보내는 방식 메뉴 ④-1, ④-2, ⑤
LLM Prompt Engineering LLM이 정확한 형태의 답을 내도록 프롬프트를 설계 / Few-shot 예시 포함 전 메뉴 공통 (특히 ①, ③, ⑥)
Embedding Model (유사도 검색) 텍스트 간 의미적 거리를 수치화 → 연관 기술 탐색 메뉴 ②, ④-1
LLM Classification / Summarization 문서를 분류하거나 핵심 내용을 요약 메뉴 ③, ⑤
Prompt Chaining 여러 단계 프롬프트를 연결하여 복잡한 결과 생성 메뉴 ⑥ (AI 리포트)
LangChain Pipeline RAG + LLM 요약 구조 프레임워크 메뉴 ④-2, ⑤
AI IDE 자동화 (Coding Assist) Cursor AI 를 활용해 API / DB / 분석 코드 자동생성 전 개발 단계 지원

⚙️ 요약 문장 (PPT 한 줄용)

“각 페이지는 RAG, LLM, Embedding 검색, Prompt Chaining 등 AI 핵심기술을 조합해 데이터 분석 → 요약 → 개인화 리포트 생성으로 이어지는 End-to-End AI 워크플로우를 구현한다.”


 

🧱 프로젝트 전체 기술 구조 (Full Tech Architecture Overview)

🟦 1️⃣ Data Layer (데이터 수집·정제 계층)

“시장의 원천 데이터를 확보하고 분석 가능한 형태로 변환”

영역주요 기술설명
데이터 수집 (Crawling/API) BeautifulSoup, Requests, Saramin API, JobKorea API 채용 공고, 기업정보, 기술명 데이터 확보
데이터 전처리 Python, Pandas, Regex, NLTK 불필요 문장 제거, 기술명 정규화, 중복 제거
데이터 저장(DB) PostgreSQL / SQLite 채용공고·기술스택·회사정보 저장, 검색용 인덱싱
임베딩 저장소 (Vector DB) FAISS / Chroma RAG용 문서 벡터 저장 및 검색

🟩 2️⃣ AI Layer (분석·생성 계층)

“LLM, Embedding, RAG, Prompt Engineering으로 시장 트렌드와 개인 분석 수행”

구분기술 / 도구주요 역할
LLM 모델 GPT-4-turbo / Claude 3 Sonnet / Mistral 7B 텍스트 요약, 기술분류, 리포트 생성
RAG Framework LangChain 문서 검색 → LLM 연결 (기사, 기업정보, 기술 연관분석)
Embedding Model text-embedding-3-large / Sentence-BERT 기술·직무 간 유사도 계산, 연관기술 탐색
Prompt Engineering Few-Shot, Chain-of-Thought, Dynamic Template AI 분석의 정확도 향상, 리포트 구조 제어
AI API 활용 OpenAI API / HuggingFace API 텍스트 분석, 요약, 분류, 생성 수행
AI 개발환경 Cursor AI 프롬프트 튜닝, 코드 자동생성, 모델 실험

🟨 3️⃣ Application Layer (서비스 계층)

“분석 결과를 시각화·제공하는 실제 서비스 구현 파트”

구성요소기술 / 도구설명
Backend FastAPI / Flask 데이터 API, AI 결과 라우팅
Frontend React.js / Streamlit 사용자 인터페이스 및 시각화 화면
시각화 Chart.js / Plotly / D3.js 기술비중 그래프, 매칭률 시각화
API 연동 Axios / Fetch 백엔드 ↔ 프론트 통신
배포환경 Vercel / Streamlit Cloud / Render 서비스 MVP 배포
협업 및 버전관리 GitHub / Notion / Figma 코드·디자인·기획 통합 관리

 

 

🕐 1주차 — 기획 및 데이터 설계 (Project Planning & Data Setup)

목표: 프로젝트 방향 확정 및 데이터 구조 설계

주요 내용세부 작업

 

✅ 주제 구체화 시장조사 대상 확정 (취업시장 / 기술 트렌드)
✅ 요구사항 정의 기능별 화면 및 메뉴 구성 (6개 페이지) 확정
✅ 데이터 수집 설계 크롤링 대상(채용공고, 기사 등) 및 DB 구조 초안
✅ 역할 분담 팀별 담당 (AI 분석 / 프론트 / 백엔드 / 시각화 / 문서)
🔧 기술 세팅 Python, MySQL, GitHub, Cursor, Notion 환경 설정

📆 개발 일정 (남은 4주 재구성 버전)

프로젝트명: AI 기반 취업 시장 기술 트렌드 분석 서비스
기간: 2~5주차 (총 4주간)


🧩 2주차 — 데이터 수집 및 구조 설계 (Data Collection & Structuring)

목표: 채용 데이터 확보 + DB 구축 + 기본 전처리 완료

주요 내용세부 작업
✅ 데이터 수집 채용 사이트 크롤링 or API 연동 (Saramin, JobKorea 등)
✅ 데이터 정제 불필요 문장 제거, 기술명 정규화 (Python + Pandas)
✅ DB 구축 MySQL 테이블 설계 (직무, 기술, 회사 정보)
✅ 샘플데이터 입력 100~200건 예시 데이터로 통계 실험
🔧 환경 세팅 Git 브랜치 전략 / Cursor 환경 정리 / DB 연결 테스트

⚙️ 3주차 — AI 분석 모듈 구현 (AI Processing Layer)

목표: AI 기반 기술 분류 / 트렌드 분석 / 연관 기술 추출

주요 내용세부 작업
✅ LLM 연동 GPT API를 활용한 기술명 분류, 직무별 분류 기능 구현
✅ Embedding 기술·직무 유사도 분석 (FAISS or LangChain 기반)
✅ 프롬프트 설계 “AI 개발 / AI 활용 / AI 무관” 자동 분류 Prompt 튜닝
✅ RAG 기초 기사·기술 트렌드 데이터 검색 및 요약 테스트
🔧 검증 결과 정확도·중복률 테스트 및 튜닝

💻 4주차 — 웹 UI 및 시각화 (Web Dashboard & Visualization)

목표: 분석결과를 사용자에게 시각적으로 보여주는 대시보드 구축

주요 내용세부 작업
✅ 프론트 구현 Streamlit or Flask + Chart.js 기반 화면 구성
✅ 페이지 구성 ① 전체시장 ② 기술별 분석 ③ AI 분류 ④ 리포트 ⑤ 트렌드
✅ 시각화 기술 비중·연관도·매칭률 등 그래프 출력
✅ API 연결 백엔드 ↔ 프론트 데이터 전달 테스트
🔧 리팩토링 데이터 로딩·쿼리 속도 개선 및 버그 수정

🧾 5주차 — 통합·문서화 및 발표 준비 (Final Integration & Documentation)

목표: 완성도 점검 + 발표자료 및 리포트 작성

주요 내용세부 작업
✅ 통합 테스트 전체 기능 연동 점검 (데이터 → 분석 → 시각화)
✅ 문서 정리 시스템 구조도 / ERD / 시연 시나리오 작성
✅ 결과 분석 AI 분석 결과 vs 실제 트렌드 비교, 한계점 기술
✅ 발표자료 제작 PPT / 시연 영상 / 시나리오 정리
✅ 리허설 팀별 발표 파트 점검 및 피드백 반영

 


 

 

 

+ Recent posts