Max Random 랩 미팅 - 1 주차
Published:
그래서 이 사람은 이거 왜 하나요?
나름 규칙적이게 삼, 학점도 나쁘지 않음, 학교 상시 거주중, 좀 목표가 확실하면 확실히 잘함!
근데
개인프로젝트, 운동, 자기개발 -> 목표가 모호하고 강제성 없으면 그냥 던지는 미친 사람
중간 여분시간은 멍때리거나 유튜브로 헌납
최근에 이게 나의 한계라 인정하고 순순히 BHC와 교촌치킨 중 어디가 좋을지 고민하고 있었음.
하지만 교수님의 조언에 따라. 남는 시간을 해야할 것에 쓰지 않는다면, 쓸 수 밖에 없도록 주박을 걸어버리면 어떨까?
그래서 이걸 시작하게 되었다.
뭘 개선하고 싶나요?
운동, 자기가꾸기
요즘 개인적으로 공부보다 더 큰 이슈. 기본적인 자기관리가 안되니 자존감이 뚝뚝 떨어지고 의욕도 안남.
개인적인 목표는 근력, 체력을 올려서 여름에 허브나 찐 노가다 지원해보기.
“학업, 코테, 졸업프로젝트”를 제외한 회피하던 분야에 대해 시도
강제성없고, 조금만 목표가 흐릿하면 그대로 회피하고 하던거 하러 감. 학업, 코테, 졸프를 제외한 것중, 부족한 것을 찾아서 공부, 체험하고 매주 정리하기.
내가 부족한부분은 적어놓고 보완하고 , 강점은 발견해서 반영하기.
(하고싶지만 우선순위에 밀리는 것들 돈 아끼기, 사회성 기르기.)
04.03
교수님과의 모임에서 크게 4가지를 추천 받았다.
부트캠프
학교 내에서 하는 것들
대학원
인턴
외부 동아리
일단 모두 찾는거는 무리고, 이것말고도 하고싶은게 많이 있다. 천천히 찾아나가자.
문영이 제안에 따라서 카카오 테크 캠퍼스 사전 설명회를 들었음.
학점 6점에다가 내가 곤란해하던 방향성까지 잡아준다? 나쁘지 않은 것 같음
근데 의외의 벽에 막혔음 -> 자기소개서. 자기소개서 2번, 5번 영역에서 자신이 학습한 프로그래밍 기술, AI 활용 경험에 대해 묻는다.
피해의식 만땅 상태여서 “기술 스택 배우러가는데 개발 경력 물어보네” 하고 표독해진 상태로 몇시간 고민했지만, 다행히도 이는 코딩테스트나 언어 사용 역량에 대한 내용인 것 같다.
또한 팀 프로젝트 경험을 묻고 있기도하다…
다른 기업들의 채용 공고나 자소서 항목들을 참고해서, 어떤 걸 요구하는지 보는것도 꽤나 도움이 될 것같음.
지금 이것도 이정돈데, 기업에서 뭐했고 이런거 자소서에 물어보면 진짜 오싹할것 같음. 미리 찾아보고 대비해야할 것 같다.
04-04
일단 졸프가 우선이긴한데.
졸프 빡세게 하다가도 오늘 할거좀 하자.
AI 활용에 대한 고민.
AI를 쓰면 깊게 안된다, 그렇다고 안쓰면 바보다. 그럼 어떤 검색 태도를 취하면 되는걸까
암튼 최신 흐름 따라가려고 클로드 결제했다. 무슨 3만 3천원이나한다 ㅅㅂ;
또 바르게 LLM을 쓰는 방법 (어떻게 입력을 줘야하는지)
AI 활용과 학습 효율의 패러독스 cognitive offloading -> 인지의 부담을 도구에게 넘김. 근데 LLM은 어떻게 해결하지의 추촌 과정 자체를 넘길 수 었음.
해결 방안으로는
-> Desirable Difficulties 프레임 워크. LLM을 답이 아닌 힌트 제공자로 사용 (이거 짜줘가 아닌 이 접근법의 문제점을 찾아줘.)
-> Metacognitive Scaffolding
관련된 논문을 보려고했는데, 클로드가 MDPI라는 라는 학회의 논문을 추천해줬음.
완전 처음 듣는 곳이라 제미나이에게 물어봤는데 논문게의 위키피디아라고 함. 참고해야할듯.
문제: AI에게 코드를 보여주고 질문하면, AI는 문제의 실제 레이어(빌드시스템, 환경, 툴체인)를 보지 않고 코드 레이어 안에서만 답한다. 특히 edk2처럼 LLM 훈련 데이터에서 비중이 낮은 특수 도메인일수록 자신감은 높고 정확도는 낮은 답을 준다. 해결 방향: 증상이 생기면 먼저 “이게 코드 문제인가, 빌드시스템 문제인가, 환경 문제인가”를 스스로 레이어를 특정한 후, 공식 문서나 도메인 경험자에게 먼저 물어라. AI는 레이어를 명시한 좁은 질문에만 써라.
또 모든 구현을 같은 의심도로 평가하지말고, 의심되는것 위주로 해라
| LLM 신뢰도 높음 | LLM 신뢰도 낮음 |
|---|---|
| 문법/syntax 오류 | 도메인 특화 설계 |
| 일반적인 패턴 구현 | 보안 관련 로직 |
| 보일러플레이트 코드 | 엣지케이스 처리 |
| 알려진 알고리즘 구현 | 아키텍처 결정 |
내가 무서워한는 것은 => ‘진정한 의미의 배움을 못하는것’ 이아닌 기술부채와 틀린 방향성. 특히 내가하는 곳이 소수 분야다보니 곤란함. 클로드는 이렇게 말했다.
- 검증 가능한 단위로 쪼개기 LLM한테 전체 설계를 맡기는 게 아니라, 네가 이미 이해한 부분의 구현만 맡기고 결과를 검증할 수 있는 상태 유지
- 도메인 지식 선확보 taint analysis라면 LLM 쓰기 전에 “Andromeda”나 관련 원 논문 하나 읽고, LLM 출력이 그 개념과 일치하는지 직접 대조하는 습관
함께 나온 것으로 arxiv 논문들이 있었는데, 이게 많이 보이는건 학술 출판사가 아닌 논문 오픈 아카이브이기 때문임. 즉 arxiv 꺼면 구글 스칼라(Google Scholar)에서 “Published in CVPR 2026” 혹은 “IEEE/ACM” 같은 문구가 붙어 있는지 확인
보통 논문들은 IEEE, ACM, USENIX, NDSS 같은 학회 기준이면 바로 믿을 수 있음.
https://dl.acm.org/doi/epdf/10.1145/3770084 논문도 하나 읽어봤음.
상 추천함.
내가 서치하려하는 것을 찾으려 노력했는데 => 그냥 모델이 서치하게 해라라고 함.
1년전인데 퍼플렉을 추천했음.
자료가 AI 되먹임이 아닌가도 중요.
여기서 퍼플렉을 칭찬하면서, 클로드는 없다고 깠는데, 클로드도 25년 5월에 추가됨. Search the web 을 추가하면 명시적으로 추가하고, 옵션이 있는데 원래 활성화 되어있고 지가 맥락보고 필요하면 검색한다함.
1년이나 지난만큼, 추가적인 검증도 필요할 듯함. 60p여서 초록을 읽어보었으나, LLM의 로우 도메인에 대한 문제를 정리 하였고, 그 도메인에서의 평가 메트릭의 문제점을 지적하고나서 모델 측면의 해결책을 제시함. 나는 쓰기만 할건데..
생각해보니 책을 읽는 것도 좋을 것 같음! 책에는 다 정리되어있을테니까. 유명한 책을 한번 찾아볼까?
?논문이 길때 보통 이를 활용하는 방안은 무엇이 있는가
가장 대표적인 보완 기술이 바로 요즘 도메인 기반 LLM이랑 같이 나오는 RAG(Retrieval-Augmented Generation) 이었다.
사용자 질문 ↓ 외부 문서(공식 문서, 논문, 코드 등)에서 관련 내용 검색 ↓ 검색된 내용 + 질문을 LLM에게 같이 넘김 ↓ LLM이 그 문서를 근거로 답변 생성
이렇게 작동한다고..
물론 개인이 쓸만한 방법은 아닐것 같고 아니라고도함.
이 키워드가 도움 되긴했다 그래도.
https://www.youtube.com/watch?v=EWvNQjAaOHw
gpt가 이영 => 자주 변하는 것들은, 서치툴이 강력한 LLM들을 사용하자.
Simon Willison — simonwillison.net
암튼간에 소규모 도메인이라는 확신이 들면
-> 배경지식을 파악해서 비판적으로 접근하기 -> 레이어 단위로 파악해서 문제의 원인을 맞게 파고드는지 계속 의심하기.
논문같은것도 ㅇ요약 잘해주네. 생각보다 크기 걱정은 없는듯. 자체적으로 줄인다.
그래도 다맡기긴 싫으니 초록정도는 읽는게 좋지 않을까.
긴파일의 이해와 검증에도 좋다고.
일단 중간 보고 -> 작년부터 지금까지 쭉 내 안에 잇었던 불안 -> 깊게 생각해보지 않았기에 LLM 사용에서의 불안정도로 찝찝하게 남았음.
하지만 고민해봄으로서 라지도메인에서의 의심은 해결되었고, 작은 도메인만 타깃으로 고민하게됨.
이를 최근 도메인 특화 LLM과 RAG 대두와 연관지을 수 있었음.
페르소나?
이거 쓰지말고
https://agentskills.io/home
이걸로 하네스 채우라고함.
