2025년 11월 1일 토요일

MLIP 이해하기

MLIP 이해하기 쉽게 설명

MLIP란 무엇인가?

MLIP는 문맥에 따라 여러 뜻으로 쓰입니다. 가장 널리 쓰이는 두 가지 의미는 아래와 같습니다.

① Machine Learning Interatomic Potential (재료과학 분야)

원자 간 상호작용(포텐셜)을 물리식 대신 머신러닝 모델로 근사하는 방법입니다. 이를 통해 양자역학 수준의 정확도를 유지하면서도 고속 계산이 가능합니다.

  • 배경: DFT(밀도 범함수 이론) 계산은 정확하지만 매우 느림
  • 아이디어: DFT 데이터를 학습하여 포텐셜 함수를 신경망 등으로 대체
  • 장점: 빠른 계산 속도 + 높은 정확도
  • 대표 예시: MTP, NNP, GAP
💡 쉽게 말해: 원자 간 힘을 물리 법칙 대신 인공지능이 예측하도록 학습시키는 기술입니다.

② Machine Learning in Production (산업/엔지니어링 분야)

연구용으로 만든 머신러닝 모델을 실제 서비스 환경(Production)에 안정적으로 배포하고 운영하는 과정 또는 기술을 뜻합니다.

  • 주요 내용: 모델 배포, 데이터 파이프라인, 모니터링, 자동 재훈련
  • 관련 기술: Docker, Kubernetes, MLflow, Kubeflow 등
  • 핵심 목표: 연구용 모델을 실서비스에 안전하게 적용
💡 쉽게 말해: "연구실에서 만든 AI 모델을 실제 앱이나 웹서비스에 돌리는 기술"

요약 비교표

약자 풀네임 분야 핵심 개념
MLIP Machine Learning Interatomic Potential 재료과학 / 물리화학 머신러닝으로 원자 간 포텐셜 모델링
MLIP Machine Learning in Production 산업 AI / 소프트웨어 엔지니어링 AI 모델을 실제 서비스에 배포·운영

2025년 10월 29일 수요일

Chroma와 agentic ai

Chroma 기반 Agentic AI 구축 가이드

Chroma 기반 Agentic AI 구축 가이드 (HTML)

요약: 이 문서는 Chroma(ChromaDB)를 벡터 저장소로 사용하고 LangChain 스타일의 agent(Planner + Tools + Executor) 패턴을 적용해 실무에서 바로 쓸 수 있는 형태로 정리한 단계별 가이드입니다.

1. 무엇을 만들 것인가 — 개요

Agentic AI는 LLM을 중심으로 계획(Plan) → 도구 호출(Call Tool) → 관찰(Observe) → 재계획 루프를 돌리는 시스템입니다. Chroma는 임베딩 기반 검색(벡터 DB) 역할을 담당하여 에이전트가 신뢰할 수 있는 외부 지식을 찾게 해줍니다.

2. 전체 아키텍처(권장)

  1. 데이터 수집 (문서, FAQ, 로그 등)
  2. 전처리 & 문서 분절(chunking) — 문맥 단위로 분리
  3. 임베딩 생성 (OpenAI/로컬 임베더 등)
  4. 벡터 저장소 — Chroma 컬렉션
  5. Retriever 레이어 (LangChain의 retriever 등)
  6. 에이전트(Planner + Tool Registry + Executor)
  7. 모니터링·로깅·안전 필터

3. 데이터 준비 (Ingestion)

핵심 포인트:

  • 문서를 300–800 토큰 단위로 분절하세요 (토큰 한도를 고려).
  • 각 chunk에 metadata를 붙이세요 (source, created_at, doc_id 등).
  • 대량 문서는 배치 임베딩으로 처리해 속도와 비용 최적화.

4. 임베딩 선택

도메인·언어 특성에 따라 임베딩 모델을 선택하세요. (OpenAI, Cohere, sentence-transformers, 또는 로컬 임베더)

5. Chroma 세팅 — 기본 예시

파이썬: Chroma 설치 및 간단한 add/query

# 설치 (예시)
# pip install chromadb

import chromadb
from chromadb.config import Settings

# 영구 저장(disk-based) 예시: duckdb + parquet backend 사용
client = chromadb.Client(Settings(
    chroma_db_impl="duckdb+parquet",
    persist_directory="./chroma_db"
))

# 컬렉션 생성
collection = client.create_collection(name="my_docs")

# 문서 추가 예시 (ids, embeddings, metadatas, documents는 미리 준비)
collection.add(
    ids=["doc1", "doc2"],
    embeddings=[[0.1, 0.2, ...], [0.2, 0.0, ...]],
    metadatas=[{"source":"manual.pdf","created_at":"2025-10-01"}, {"source":"faq.md","created_at":"2025-09-20"}],
    documents=["내용 1 ...", "내용 2 ..."]
)

# 쿼리 (검색)
results = collection.query(query_embeddings=[query_emb], n_results=5)
print(results)
Tip: 실제 임베딩 생성은 OpenAI나 로컬 임베딩 모델을 통해 별도로 수행하고, 그 결과(벡터)를 Chroma에 저장합니다.

6. LangChain(또는 유사 프레임워크)과 통합

LangChain의 벡터스토어 래퍼(예: Chroma)를 사용하면 retriever를 LLM/agent에 바로 연결할 수 있습니다.

from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings

emb = OpenAIEmbeddings()  # 예시
vect = Chroma(client=client, collection_name="my_docs", embeddings=emb)
retriever = vect.as_retriever(search_kwargs={"k":4})

# retriever.get_relevant_documents("질문") 로 관련 문서 추출 가능

7. 에이전트 디자인 — Planner, Tools, Executor

기본 구성:

  • Planner: 질문을 작업 단위로 분해
  • Tool Registry: 검색, 계산, 외부 API 등 호출 가능한 도구 집합
  • Executor: Planner의 지시대로 도구 호출 → 관찰 반환 → 반복
  • Stopping Criteria: 최대 루프 수, 시간 제한, 안전 규칙

툴 래퍼 간단 예시 (LangChain 스타일)

from langchain.tools import BaseTool

class SearchDocsTool(BaseTool):
    name = "search_docs"
    description = "문서 검색 후 요약(출처 포함)을 반환합니다"

    def _run(self, query: str):
        docs = retriever.get_relevant_documents(query)
        return "\n".join([f"{d.page_content} (source={d.metadata.get('source')})" for d in docs])

8. RAG + Agent 결합 패턴 (권장)

에이전트의 질문 흐름 예시:

  1. 에이전트가 질문 수신
  2. Retriever로 관련 문서(top-k) 획득
  3. Planner가 문서 내용을 요약/검토 → 필요한 툴 선정
  4. 툴 호출(예: 외부 API, 계산기)
  5. 관찰 결과를 바탕으로 최종 응답 생성 (근거 출처 포함)

9. 예제: 최소 동작하는 로컬 에이전트 (개념 코드)

# 초기설정(임베딩, Chroma, retriever는 앞에서 준비되었다고 가정)
from langchain.agents import initialize_agent, AgentType
from langchain.llms import OpenAI
from langchain.tools import Tool

# LLM 설정 (예시)
llm = OpenAI(temperature=0)

# 툴 정의(함수 -> Tool)
def search_docs(query: str) -> str:
    docs = retriever.get_relevant_documents(query)
    return "\n".join([f\"{d.page_content} (source={d.metadata.get('source')})\" for d in docs])

def simple_calc(expr: str) -> str:
    # 매우 간단한 계산기 (주의: 실제 시스템에서는 안전성 검증 필요)
    return str(eval(expr))

tools = [
    Tool.from_function(search_docs, name="search_docs", description="Search company docs"),
    Tool.from_function(simple_calc, name="calc", description="Simple calculator")
]

agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)

# 실행
resp = agent.run("제품 X의 배포일정을 찾아 요약하고, Q4 매출을 계산하려면 '1000*1.2' 값을 계산해줘")
print(resp)
주의: 실제 환경에서는 eval 사용 금지, 입력 검증·샌드박스화 필요합니다.

10. 안전성·품질 확보

  • 모든 retriever 결과의 근거 메타데이터를 응답에 포함하세요 (source, date).
  • 도구 호출 시 화이트리스트/입력 검증을 적용하세요.
  • 실행 루프에 최대 반복 수와 시간 제한을 설정하세요.
  • 사용자에게 '모름'이라고 정직하게 답할 수 있도록 설계하세요(추측 금지).

11. 모니터링·평가

수집할 메트릭 예시:

  • 정확도(정답률), 회수된 근거의 정합성 비율
  • 환각(hallucination) 사례 수집·분류
  • 응답 시간, 토큰/비용
  • 도구 호출 실패율

12. 운영(운영성 고려사항)

  • 대규모 문서: Chroma의 persistence(duckdb+parquet 등) 사용, 인덱스/샤딩 고려
  • 동시성: Chroma client의 동시 접근 정책 확인
  • 비용: 임베딩 API 배치 처리로 절감
  • 보안: 민감 정보는 암호화·접근제어, 내부 호스팅 고려

13. 모범 사례 & 팁

  • 메타데이터에 source_type, created_at, confidence를 추가
  • Retriever로 가져온 문서가 토큰 한도를 초과하면 요약(압축) 후 제공
  • 테스트셋(질문/정답/필수근거)을 만들어 자동검증 파이프라인 구성
  • 에이전트의 행동 로그(Plan → Tool → Observation)를 모두 보관해 문제 재현에 사용

14. 체크리스트 (배포 전)

  1. 데이터 분절 및 메타데이터 완비
  2. 임베딩 품질 검증 (샘플 쿼리로 유사도 확인)
  3. Chroma 컬렉션 persist 확인
  4. 툴의 입력 검증과 샌드박스 적용
  5. 루프 한계·타임아웃 설정
  6. 감사·로깅·모니터링 파이프라인 연결
  7. 사용자 피드백 루프(라벨링) 준비

15. 추가 고려사항 (현업 사례 별)

  • 고객지원용: 민감정보 마스킹, 답변 근거(링크) 의무화
  • 내부문서 Q&A: 버전관리(문서 업데이트 시 재임베딩 전략)
  • 제품추천/상담: 실시간 데이터 연동(재고·가격), 트랜잭션 전용 도구 분리

16. 마무리

위 가이드는 Chroma를 중심으로 한 벡터 저장·검색 계층과, LangChain 스타일의 에이전트 패턴을 결합해 안정적으로 동작하는 agentic AI를 만드는 과정을 단계별로 설명했습니다. 실제 적용 시에는 LLM/임베딩 제공자, LangChain 등 프레임워크 버전에 따라 API가 달라질 수 있으므로 배포 전 작은 프로토타입으로 검증하시길 권장합니다.

도움 필요하시면 다음 작업 중 하나를 골라주세요:
  • 실제 도메인(예: 고객지원, 제품문서)에 맞춘 완전한 코드 템플릿 생성
  • LangChain 및 Chroma 버전(예: LangChain v0.1x / v1.x)을 지정한 구체 코드
  • 배포 체크리스트(쿠버네티스, Docker, CI/CD) 생성
선택하시면 그에 맞춰 바로 HTML/코드/배포 스크립트를 만들어 드립니다.

데이터가 적은 경우 물성예측

데이터가 충분하지 않을 때 물성 예측하는 방법

데이터가 충분하지 않을 때 물성 예측하는 방법

AI로 소재나 분자의 물성을 예측할 때 가장 큰 문제 중 하나는 바로 데이터 부족입니다. 수천, 수만 개의 실험 데이터를 확보하기 어렵다면, 예측 정확도가 떨어질 수밖에 없죠. 하지만 데이터가 적더라도 물성을 비교적 정확히 예측하는 여러 접근법이 존재합니다. 오늘은 그 방법들을 이해하기 쉽게 정리해 보겠습니다.

1️⃣ 데이터 증강(Data Augmentation)

데이터가 부족할 때 가장 먼저 시도할 수 있는 방법은 데이터 증강입니다. 이미 있는 데이터를 살짝 변형해 더 많은 데이터를 만들어내는 것이죠. 예를 들어 분자 구조의 회전, SMILES 코드의 순서 변경, 또는 노이즈 추가 등을 통해 AI가 더 다양한 패턴을 학습하도록 도와줍니다. 이는 이미지 분야의 좌우 반전, 색상 변화와 같은 개념과 비슷합니다.

2️⃣ 전이학습(Transfer Learning)

충분한 데이터로 학습된 대규모 화학 예측 모델을 먼저 학습시킨 뒤, 그 지식을 적은 데이터의 새로운 물질군에 ‘이식’하는 방법입니다. 예를 들어, 다른 배터리 전해질 데이터로 학습된 모델을 가져와 새로운 전극 소재의 물성 예측에 활용할 수 있습니다. 이는 적은 데이터로도 높은 정확도를 얻는 효과적인 전략입니다.

3️⃣ 물리 기반 보정(Physics-informed Model)

AI 모델이 완전히 데이터에만 의존하지 않고, 물리 법칙이나 화학 이론식을 함께 활용하는 방법도 있습니다. 예를 들어 에너지 준위, 밴드갭, 분극율 같은 이론적 제약조건을 추가해 AI가 비현실적인 결과를 예측하지 않도록 보정합니다. 이는 데이터가 적더라도 신뢰도 높은 예측을 가능하게 만듭니다.

4️⃣ 생성 모델(Generative Model) 활용

최근에는 SELFIESSMILES 기반의 생성형 AI를 활용해 부족한 화학 데이터를 직접 ‘생성’하기도 합니다. 이 방식은 실제 실험 데이터를 대체하거나, AI 학습용으로 가상의 분자 후보를 만들어내는 데 매우 유용합니다.

5️⃣ 앙상블 학습(Ensemble Learning)

단일 모델의 한계를 극복하기 위해, 여러 모델의 예측을 종합해 평균을 내거나 가중치를 부여하는 방법입니다. 데이터가 적을수록 단일 모델은 편향될 가능성이 커지므로, 앙상블을 통해 안정적이고 일반화된 예측 결과를 얻을 수 있습니다.

6️⃣ 소수 데이터 학습(Few-shot Learning)

최근 AI 연구에서는 몇 개의 샘플만으로도 학습하는 Few-shot Learning 방법이 활발히 연구되고 있습니다. 이는 유사한 구조의 분자 패턴을 빠르게 파악해 적은 데이터에서도 효율적으로 물성을 예측할 수 있게 합니다.

💡 정리하자면

데이터가 충분하지 않아도 방법은 있습니다. 핵심은 지식을 활용하고, 모델을 똑똑하게 보정하며, 데이터를 ‘늘리는’ 방향으로 접근하는 것입니다. AI는 결국 데이터를 이해하고 일반화하는 기술이기 때문에, 양보다 질 높은 데이터물리적 인사이트가 더 중요할 때도 많습니다.

#데이터증강 #전이학습 #물성예측 #소재AI #생성모델 #앙상블학습 #물리기반모델 #FewShotLearning #SMILES #AI소재연구

토큰코드

분자구조 분석을 위한 토큰코드 이해하기

분자구조를 데이터화하여 분석하는 토큰코드란?

토큰 코드(Token Code)분자의 구조를 컴퓨터가 이해할 수 있도록 변환한 문자열입니다. 즉, 화학 구조를 ‘데이터화’하여 인공지능이나 머신러닝이 분석할 수 있게 만드는 분자의 언어이죠.

1️⃣ 토큰 코드의 기본 개념

토큰 코드는 원자, 결합, 구조 패턴을 컴퓨터가 읽을 수 있는 형태로 표현합니다. 쉽게 말해, 분자의 고유한 모양을 텍스트 바코드처럼 바꾼 것입니다.

이렇게 하면 AI가 분자 간의 유사성, 반응성, 물성 등을 학습하고 예측할 수 있습니다.

2️⃣ 대표적인 분자 토큰 코드 종류

🧬 (1) SMILES (Simplified Molecular Input Line Entry System)

가장 널리 사용되는 분자 문자열 표현 방식입니다. 분자를 원자와 결합의 순서로 간단히 나타냅니다.

예시: CCO (에탄올, C–C–O 결합)

  • 장점: 간단하고 저장·검색이 용이
  • ⚠️ 단점: 같은 분자를 여러 방식으로 표현 가능 → 표준화 필요

🧬 (2) InChI (International Chemical Identifier)

IUPAC에서 만든 표준화된 분자 구조 코드입니다. 동일한 분자는 항상 동일한 코드로 표현됩니다.

예시: InChI=1S/C2H6O/c1-2-3/h3H,2H2,1H3

  • 장점: 중복 제거, 데이터베이스 검색에 최적
  • ⚠️ 단점: 사람이 읽기에는 복잡하고 길다

🧬 (3) SELFIES (Self-Referencing Embedded Strings)

최근 등장한 AI 친화적 토큰 코드입니다. SMILES와 달리 항상 유효한 분자 구조만 생성되어 신약 개발과 생성형 모델에 유용합니다.

예시: [C][C][O]

  • 장점: 오류 없는 분자 표현 → 머신러닝 학습에 적합
  • ⚠️ 단점: 아직 표준화 초기 단계

3️⃣ 왜 토큰화가 중요한가?

AI 모델은 문장을 이해하듯 분자 구조도 ‘토큰 단위’로 분석합니다.

예를 들어, [C], [O], [=O] 같은 토큰 단위로 분해하여 각 패턴을 학습하고, 물성 예측·반응 경로 분석·신약 후보 탐색을 수행합니다.

즉, 좋은 토큰화 구조 = 분자 이해력의 핵심입니다.

4️⃣ 실제 활용 분야

  • 💊 신약개발: SMILES 기반으로 신물질 구조 생성
  • 🧫 소재연구: 분자 토큰으로 전도성·열안정성 예측
  • 에너지 분야: 전해질·촉매 분자의 구조 분석

5️⃣ 요약 비교표

코드명 특징 장점 주요 활용
SMILES 간단한 문자열 표현 간결하고 널리 사용됨 AI 학습, 화학 데이터베이스
InChI 표준화된 구조 코드 중복 제거, 검색 최적 데이터 표준, 물질 식별
SELFIES AI 친화적 코드 항상 유효한 분자 생성 생성형 모델, 신약개발

🧠 한 줄로 정리하자면

분자 토큰코드(Token Code)는 분자의 구조를 컴퓨터가 이해하도록 바꾼 “화학의 언어”로, AI가 분자를 읽고 예측하고 창조할 수 있게 해주는 핵심 기술입니다.

#분자토큰코드 #SMILES #InChI #SELFIES #화학AI #머신러닝 #분자구조 #데이터과학 #신약개발 #지식표현

온톨로지

온톨로지 쉽게 설명

온톨로지(Ontology) 쉽게 이해하기

온톨로지(Ontology)는 어렵게 들리지만, 사실은 ‘정보를 체계적으로 정리하는 방법’이라고 생각하면 쉽습니다.

1. 온톨로지의 기본 개념

‘온톨로지’는 원래 철학에서 존재론, 즉 “무엇이 존재하는가”를 다루는 학문입니다.

하지만 컴퓨터공학이나 인공지능 분야에서는 조금 다르게 사용됩니다. 여기서는 “어떤 분야에 존재하는 개념들과 그 관계를 체계적으로 표현한 지식 구조”를 말합니다.

2. 쉽게 말하면?

예를 들어 ‘동물’이라는 주제를 다룬다고 할 때, 다음과 같이 정리할 수 있습니다.

  • 개념들: 동물, 포유류, 조류, 개, 고양이, 독수리 등
  • 관계들: 개는 포유류이다 / 포유류는 동물이다 / 독수리는 조류이다

이렇게 “무엇이 무엇과 어떤 관계를 가지는가”를 트리 구조로 표현한 것이 온톨로지입니다.

3. 인공지능에서 왜 중요할까?

AI는 단어의 철자만 보는 것이 아니라 ‘의미의 관계’를 이해해야 합니다.

예를 들어 “포유류의 예를 들어줘”라고 하면, AI는 ‘개’, ‘고양이’, ‘사자’가 포유류라는 사실을 알아야 하죠. 이런 의미의 연결을 가능하게 하는 것이 바로 온톨로지입니다.

4. 온톨로지의 다양한 예시

  • 의료 온톨로지: 질병, 증상, 약물, 진단 간의 관계
  • 여행 온톨로지: 나라 → 도시 → 관광지 → 음식 → 숙소
  • 제품 온톨로지: 카테고리, 브랜드, 모델, 기능 관계

즉, 온톨로지는 데이터에 의미를 부여하는 지식의 지도입니다.

5. 한 줄로 정리하자면

온톨로지(Ontology) = “정보를 의미 중심으로 연결해놓은 지식의 지도”입니다.

AI가 사람처럼 개념을 이해하고 추론할 수 있도록 도와주는 핵심 기술이죠.

#온톨로지 #인공지능 #지식그래프 #AI #데이터구조 #의미론 #정보체계 #지식표현 #기계학습 #AI기초

태그

2025년 가열재생방식 가치기반 가치기반학습 가치이터레이션 강화학습 강화학습기초이론 강화학습방법 강화학습종류 개나리 개념 개발업무 최적화 건강 건식전극코팅 검사 검사기 검사장비 검사장비 양산라인 투입 절차 검색엔진최적화 검색키워드 검출율 경쟁력 경험재플레이 고체전해질적용 공부방법 공정간 에너지 흐름 공정내 에너지 절감 기술 과검율 관절 구글검색키워드 군마트 극초박형 셀제조 기계학습 기내반입 기대값 기초용어 나스닥 남녀사랑 냉각시스템 네이버 네이버 검색 키워드 분석 단백질 답변거부능력 더 원씽 덕담 동적계획법 듀얼브레인 드로스 딥시크 레이저노칭 문제점 로봇산업 롤투롤 생산공정 리액트히터 리튬산업 마르코프과정 마르코프의사결정 막걸리 말을 잘하는 방법 멀티 스텝 모델링 메모리 메인내용 메주콩 메주콩파종 멧돌호박 모델기반학습 모델종류 모델프리학습 모듈 모바일 몬테카를로 방법 몬테카를로방법 물류 및 공급망 최적화 물성의 성질 미국 오하이오 미국주가 미국주식 미래기술전망 미래전망 미세플라스틱 미중경쟁 밀도범함수이론 반도체 가격 상승 반사율 방수 배터리 배터리 주요불량 배터리공정 배터리기술 배터리불량 배터리소재 배터리신뢰성 배터리와인공지능 배터리정책 배터리제조 배터리제조신기술 백주 뱀때 버거체인 벨만방정식 병역명문가 보조배터리 보조배터리 기내반입 분석솔루션 불량원인분석 비례적분미분제어 비전 비지도학습 사랑 삼성반도체 새피해 새해인사 새해인사말 생각정리 생각정리기술 생마늘 생산계획 생수 생수페트병 설계최적화 설날인사말 설비고장예측 성심당 성심당온라인 구매 성심당추천빵 셀 스웰링 셀스웰링 셀투팩 소매업 소재개발 소프트뱅크 쇠뜨기 수명예측 수요예측 스마트팩토리 스웰링불량 시간차학습 시계열분석 시뮬레이션 신뢰성 액터-크리틱 양배추 양자컴퓨터 어텐션 어텐션메커니즘 에너지 절감 에너지 절감방법 에너지사용최적화 에너지절감 에너지절감방안 에어드라이어 에피소드 기반 학습 엘지전자 영어 영어 리스닝 예제 오버행불량 오버행불량원인 오프폴리시 온누리상품권 온폴리시 용접 워런버핏 원달러 변화패턴 원달러 환율전망 원엔환율 원인 원자간 상호작용 학습 및 예측 웬디스버거 을사 인간피드백을 통한 강화학습 인공지능 인공지능경쟁 인생 일본금리 일본환율 자발적DR 자이가르닉 효과 장마 재고관리 재생시스템 재활용소재활용 저전압 저축 전자분포 전자의 움직임 전자의분포 전자의움직임 전통시장통통 정식방법 정책기반 정책기반 이터레이션 정책기반학습 정책이터레이션 제사상 제습공조설비 제습효율 제조업 제조에너지절감 제품개발 젠슨황 조합최적화 주식 중국공급과잉 중요샘플링 지도학습 지도학습미세조정 지붕방수 지수평활법 창신메모리테크놀로지 책줄거리 청주 최신배터리기술 최신이슈 최적제어 추정 추천빵 코스모스 콜드 스타트 키워드 분석 탁주 통계적 방법 투자 투자가 투자철학 트럼프2.0 트루시니스 파종 패키징공정 페트병 페트병두께 푸른뱀때 품질관리 피엑스 필요기술 필요지식 하이닉스 학습항목 한국반도체 행복 행위적인공지능 현대차 화합물 물성 확률 효능 효율적인 업무방법 휴머노이드로봇 흡착식 에너 드라이어 흡착식에어드라이어 흡착제 힘의교환 Actor Actor-Critic 강화학습 Actor-Critic학습 Agentic AI AI AI기반품질관리 Air Dryer ARIMA AS재고관리 Attention Attention Algorithm Battery Manufacturing Battery Manufaturing Battery Material Books Books for Beginners to Learn About LLM CATL Cell to Pack confusion matrix Critic CTC CTP CXMT DDR5 Deep Learning Deep Seek DeepSeek Demand Response DFT DIO Double DQN DP DPO DQN Dross DSO Dueling DQN dumplings Dynamic Programming ESS ESS솔루션 EV FFC FFC체결여부 검사 garlic genesis Gongi Graph Enhanced RAG Health Horsetail Hot Areas how to speak well Human Feedback importance sampling Kitchen hoods Korean dumplings Korean Rice Cake Soup Korean Traditional Game Large Language Models LLM LSTM Machine Learning Interatomic Potential Mandy Material Development MDP MLIP MMFF94 Multi-step Modeling New Battery Materials NMP Recovery Nuts PCU Physical AI PID제어 ppm PPO Pre Cooling Unit pre training Precooling Unit Prophet Protein Q-Learning Quality Inspection Data Quality Management RAG Raw Garlic RCU React Heater REINFORCE REINFORCE학습 Reinforcement Learning Reliability Return cooling Unit RL RLHF RORL RUL방법 SARIMA SARSA SCM SCM 핵심 재무 지표 SEO SFT SHAP SHAP로직 small kitchen hoods squd Squid Game Stacking TD학습 Temporal Difference Tener Stack Time Difference Learning truthiness Ttakji Tteokguk VAR ventilations for small spaces Vision Water Z-Stacking