이 강연은 LLM(대규모 언어 모델)의 기본 개념부터 실제 활용, 프롬프트 엔지니어링, AI 에이전트에 이르기까지 다양한 주제를 다루었습니다. 발표자는 LLM을 단순한 ‘고급 자동완성’ 기능으로 설명하며, 단어를 하나씩 예측해 문장을 생성하는 오토리그레시브(autoregressive) 방식에 대해 소개했습니다. 언어 모델이 수학 문제, 유사 관계, 사실 확인 등의 작업도 예측을 통해 해결할 수 있음을 예시로 보여주었고, 프롬프트 설계(예: “당신은 MIT 수학자입니다”)에 따라 모델의 응답 정확도가 달라질 수 있다고 강조했습니다.
또한, 체인 오브 쏘트(chain-of-thought) 방식처럼 ‘생각의 흐름’을 유도하는 프롬프트 기법이 정확도 향상에 기여한다는 점도 설명했습니다. 모델 구조 변경 없이 성능을 높이는 LoRA(저순위 적응) 같은 기술도 소개되었습니다. AI 에이전트 관련 부분에서는 React와 Toolformer 논문을 예시로 들어, 모델이 도구를 사용하거나 복잡한 작업을 계획·추론하는 방식에 대해 설명했습니다.
마지막으로 LLM의 한계(편향, 헐루시네이션, 규칙 위반 등)와 이를 방지하기 위한 평가, 정책 계층, 외부 도구 연동(RAG) 등의 대응 방안도 함께 다뤘습니다. 전체적으로 LLM 기술의 작동 원리와 실제 활용, 주의사항 등을 균형 있게 소개한 강연입니다.
#LLM #대규모언어모델 #PromptEngineering #프롬프트엔지니어링 #AIApplications #AI응용 #MachineLearning #기계학습 #AIInnovation #AI혁신 #NaturalLanguageProcessing #자연어처리 #GenerativeAI #생성형AI #TechForGood #기술을이용한선한영향 #AITraining #AI훈련 #MultimodalAI #멀티모달AI