AI 시대 생물정보학자의 논문 브리핑 자동화
매일 쏟아지는 논문, 어떻게 따라갈까
생물정보학 분야에서 하루에 bioRxiv에만 수십 편의 프리프린트가 올라옵니다. 여기에 PubMed, arXiv cs.AI까지 합치면 관련 논문을 추적하는 것 자체가 하나의 업무가 됩니다.
결국 핵심은 두 가지입니다:
- 어디서 긁어올 것인가 (신뢰성 있는 소스)
- 어떻게 자동으로 받아볼 것인가 (자동화)
이 포스트에서는 Claude Code의 Scheduled Trigger를 이용해서 매일 아침 관련 논문 브리핑을 자동으로 받는 방법을 소개합니다.
신뢰성 있는 소스
| 소스 | 특징 | MCP Server |
|---|---|---|
| bioRxiv | 피어리뷰 전 최신 연구 | O — 공식 (Life Sciences 마켓) |
| PubMed | 검증된 Biomedical 논문 | O — 공식 (Life Sciences 마켓) |
| arXiv | AI/ML 최신 연구 | O — 커뮤니티 (arxiv-mcp-server, ★2.4k) |
bioRxiv, PubMed, arXiv는 모두 MCP Server가 있기 때문에 API를 직접 호출할 필요 없이 자연어로 검색할 수 있습니다. MCP Server가 알아서 API를 호출하고 결과를 반환합니다.
Claude Code Scheduled Trigger
여기서 핵심입니다. Scheduled Trigger는 Claude Code에서 제공하는 스케줄 기반 자동 실행 기능입니다. cron 표현식으로 실행 주기를 정하고, 프롬프트를 지정하면 Claude Code가 해당 시간에 자동으로 작업을 수행합니다.
Trigger 생성
Claude Code CLI에서 /schedule 명령어로 생성합니다:
# 매일 아침 8시에 논문 브리핑 실행
claude schedule create \
--cron "0 8 * * *" \
--prompt "bioRxiv에서 지난 24시간 동안의 bioinformatics 프리프린트를 검색하고, \
single-cell RNA-seq, spatial transcriptomics, LLM 관련 논문을 필터링해서 \
상위 5편을 1~2줄로 요약한 뒤 papers-log.md에 오늘 날짜 섹션으로 추가해줘" \
--dir /path/to/research-repo
Trigger 관리
# 목록 확인
claude schedule list
# 삭제
claude schedule delete <schedule-id>
Cron 표현식 참고
| 표현식 | 의미 |
|---|---|
0 8 * * * |
매일 오전 8시 |
0 8 * * 1-5 |
평일 오전 8시 |
0 */6 * * * |
6시간마다 |
0 9 * * 1 |
매주 월요일 오전 9시 |
실전 예시: 데일리 논문 브리핑 파이프라인
Scheduled Trigger에서 MCP Server를 활용하면 API를 직접 호출하지 않아도 됩니다. 이미 설치된 bioRxiv, PubMed MCP Server가 자동으로 사용됩니다.
프롬프트 예시
다음 작업을 수행해줘:
1. bioRxiv MCP로 지난 24시간 bioinformatics 프리프린트 검색
2. PubMed MCP로 "single cell RNA-seq" OR "spatial transcriptomics" 최신 논문 검색
3. 결과에서 다음 키워드와 관련된 논문만 필터링:
- single cell, spatial, scRNA-seq, GWAS, polygenic risk score
- LLM, AI agent, foundation model
- scanpy, scvi-tools, cellxgene
4. 각 논문을 제목, 저자, 1줄 요약 형식으로 정리
5. papers-log.md 파일에 오늘 날짜(## 2026-03-26) 섹션으로 추가
6. 총 몇 편을 검토했고 몇 편을 선별했는지 상단에 기록
출력 예시 (papers-log.md)
아래는 2026년 3월 26일에 bioRxiv MCP, PubMed MCP로 실제 실행한 결과입니다.
## 2026-03-26
> bioRxiv bioinformatics 최근 3일 / PubMed scRNA-seq + spatial 최근 1주
### bioRxiv (via MCP)
- **[Mosaic integration of spatial multi-omics with SpaMosaic](https://doi.org/10.1101/2024.10.02.616189)**
- Yan et al. | 이질적 spatial multi-omics 데이터의 mosaic 통합으로 다중 모달 공간 아틀라스 구축
- **[cellSight: Characterizing dynamics of cells using scRNA-seq](https://doi.org/10.1101/2025.05.16.654572)**
- Chatterjee et al. | 단일세포 분석 자동화 도구, 세포 동태 특성화
- **[AI-Enhanced Adaptive Virtual Screening Platform (69B molecules)](https://doi.org/10.1101/2023.04.25.537981)**
- Cecchini et al. | AI 기반 690억 화합물 가상 스크리닝, FSP1 억제제 발견 및 구조 검증
### PubMed (via MCP)
- **[Single-cell transcriptomics reveals M1 macrophage-driven MCD to FSGS progression](https://doi.org/10.1080/0886022X.2026.2620204)**
- Wang et al. | scRNA-seq + ML로 사구체 질환 진행 예측 바이오마커 6개 발굴
- **[CTHRC1 secreted by CAFs promotes EMT via ITGA5/PI3K/AKT in HNSCC](https://doi.org/10.1016/j.cellsig.2026.112409)**
- Wu et al. | scRNA-seq + spatial transcriptomics로 두경부암 CAF 유래 CTHRC1의 EMT 촉진 기전 규명
- **[MYB as therapeutic target in TNBC based on PI3K/AKT pathway](https://doi.org/10.1016/j.compbiolchem.2026.108938)**
- Zhuang et al. | 다중 오믹스(scRNA-seq, spatial) 분석으로 삼중음성 유방암 치료 타겟 MYB 발굴
다른 플랫폼에서는?
Claude Code만 이런 게 가능한 건 아닙니다. 주요 AI 플랫폼별 자동화 역량을 비교해보겠습니다.
플랫폼 비교
| 기능 | Claude Code | ChatGPT | Gemini CLI | OpenAI Codex CLI |
|---|---|---|---|---|
| Agentic CLI | O | X (웹/앱) | O | O |
| MCP 지원 | O (네이티브) | X | O | X |
| 스케줄링 | O (Trigger) | O (Tasks) | X (외부 cron) | X (외부 cron) |
| 로컬 파일 접근 | O | X (샌드박스) | O | O |
| 생명과학 도구 | O (MCP 마켓) | X | X | X |
ChatGPT Tasks (OpenAI)
OpenAI는 ChatGPT에 Scheduled Tasks 기능을 제공합니다. “매주 월요일 아침에 AI 뉴스 요약해줘” 같은 자연어 스케줄링이 가능합니다.
장점:
- 별도 설치 없이 ChatGPT 앱에서 바로 사용
- 웹 브라우징으로 최신 정보 접근 가능
한계:
- 로컬 파일을 읽거나 쓸 수 없음 — papers-log.md 같은 파일 관리 불가
- MCP Server 연동 불가 — PubMed, bioRxiv API 직접 호출 불가
- 샌드박스 환경에서만 실행
Gemini CLI (Google)
Google의 Gemini CLI는 Claude Code와 가장 유사한 오픈소스 CLI 도구입니다. MCP Server도 지원합니다.
장점:
- 오픈소스, Gemini 2.5 Pro 기반
- MCP Server 연결 가능
- 로컬 파일 읽기/쓰기 가능
한계:
- 빌트인 스케줄링 없음 — 직접 cron 설정 필요
- 생명과학 전용 MCP 마켓플레이스 없음
# Gemini CLI + cron으로 수동 스케줄링
# crontab -e
0 8 * * * cd /path/to/repo && gemini -p "bioRxiv 최신 논문 검색해줘" >> log.txt
OpenAI Codex CLI
OpenAI의 Codex CLI도 터미널 기반 에이전트입니다.
한계:
- MCP 미지원 — 외부 도구 연동이 제한적
- 빌트인 스케줄링 없음
- 생명과학 도구 생태계 없음
그 외
| 도구 | 스케줄링 | 비고 |
|---|---|---|
| GitHub Copilot Agent | Issue 할당 시 작동 | PR 자동 생성, cron 아님 |
| Google Jules | Issue 할당 시 작동 | 비동기 코딩 에이전트 |
| Copilot Studio + Power Automate | O | 엔터프라이즈, 개발자 CLI 아님 |
| n8n / Make | O | 워크플로우 자동화, LLM API 호출 가능 |
n8n이나 Make 같은 워크플로우 자동화 플랫폼은 cron 스케줄링 + LLM API 호출을 조합할 수 있어서, 코드 없이 논문 브리핑 파이프라인을 만드는 데 적합합니다.
결론: 어떤 걸 써야 할까
- 로컬 파일 관리 + MCP + 스케줄링 다 필요하면 → Claude Code
- 간단한 웹 기반 브리핑이면 → ChatGPT Tasks
- 오픈소스 + 커스터마이징이면 → Gemini CLI + cron
- 코드 없이 자동화하고 싶으면 → n8n / Make + LLM API
Notion 연동 (선택)
논문 브리핑을 Notion 데이터베이스에 자동 정리할 수도 있습니다. Notion MCP Server가 이미 설치되어 있으므로 프롬프트에 다음을 추가합니다:
선별된 논문을 Notion 데이터베이스 "Paper Tracker"에 추가해줘.
속성: Title, Authors, Source (bioRxiv/PubMed/arXiv), Date, Tags, Summary
주의사항
- Scheduled Trigger는 Claude Code가 실행 중이어야 동작합니다. 항상 켜둘 수 없다면 GitHub Actions 연동을 고려하세요.
- MCP Server 가용성은 외부 서비스에 의존하므로, 중요한 워크플로우에서는 API 직접 호출(curl)을 백업으로 프롬프트에 포함하는 것이 안정적입니다.
- PubMed API는 NCBI API key 없이 초당 3건 제한이 있습니다. 매일 실행 수준에서는 문제없지만, 대량 검색 시 key 등록을 권장합니다.
마무리
매일 아침 커피 한 잔 하는 동안, AI가 알아서 논문을 긁어오고 요약해주는 시대입니다. 소스를 정하고, 키워드를 세팅하고, Trigger 하나 걸어두면 끝입니다.
개떡같이 프롬프트를 써도 MCP Server가 알아서 API를 호출하고, Claude가 알아서 요약해줍니다. 생물정보학자의 아침 루틴에 논문 브리핑을 자동으로 추가해보세요.
댓글남기기