W
MIG 토우 라인 비전 + 로봇 추종 시스템
프로젝트 요약 v1.0 · 내부 검토용
용접 비전 + 로봇 제어
Welding Intelligence

MIG 토우 라인 비전
+ 로봇 추종 시스템

레이저를 학습용 Teacher로 활용하고, 현장에는 카메라만 설치하는 고정밀·저원가 용접 추종 솔루션에 대한 개요입니다.

Presenter 조 윤범
Scope 비전 · 로봇 · MLOps 설계 방향
Key Message
카메라 하나로 MIG 시임 중앙을 인식하고, Indy7 로봇이 ±0.7mm 이내로 실제 시임 형상을 따라가며, MLOps를 통해 시간이 갈수록 더 똑똑해지는 용접 셀을 만드는 것이 목표입니다.
Overview 제품 컨셉 요약

카메라 하나로 MIG 용접 시임 중앙을 인식하고, Indy7 로봇이 ±0.7mm 이내 정밀도로 실시간 추종하는 비전+로봇 통합 솔루션입니다.

우리가 만드는 것
제품 기능
  • MIG 용접에서 토우/시임 중앙선 자동 검출
  • 실제 시임 형상을 기준으로 Indy7 궤적 실시간 보정
  • 고정 궤적(MoveC)이 아닌 실제 부품을 보면서 추종
±0.7 mm V1 목표 정밀도 (95% 구간)
제품 구성 (V1)
패시브 비전
  • HDR 용접 카메라 + 임베디드 컴퓨팅 (CPU/소형 GPU)
  • Indy7 연동 용접 추종 모듈
  • 레이저 미포함 – 설치/원가 최소화
제품: 카메라만 레이저: 내부 R&D/학습용
Strategy 레이저는 학습용, 제품은 카메라만

레이저 삼각측량 센서는 정답(Teacher) 생성용으로만 쓰고, 실제 현장 제품은 카메라 기반 패시브 비전으로 설계해 원가·설치성을 동시에 잡는 전략입니다.

내부 R&D 셀
Laser + Camera + Robot
  • 레이저 삼각측량 센서로 고정밀 3D 프로파일/토우 위치 취득
  • 카메라 이미지와 레이저 데이터를 HW 트리거로 동기화
  • 레이저를 GT 생성기로 사용해 세그멘테이션 모델 학습
고정밀 GT 데이터 확보 Teacher–Student 학습
현장 제품 (V1)
Cost & Simplicity
  • HDR 용접 카메라만 포함 – 레이저 하드웨어 제거
  • 설치/보정 단순화 → 라인 적용성↑
  • 레이저로 학습된 모델로도 목표 정밀도 달성 가능
BOM ↓ 원가·복잡도 동시 절감
Data & MLOps 데이터가 핵심 자산인 구조

장기 성능은 알고리즘 자체보다 현장에서 쌓이는 실제 용접 데이터가 결정합니다. MLOps로 “쓰면 쓸수록 좋아지는” 구조를 제품 설계에 처음부터 녹였습니다.

데이터 플로우
MLOps
  • 현장 용접 이미지, 모델 출력, 로그 자동 수집
  • 서버/클라우드에서 정제·학습·검증
  • 검증된 새 모델을 장비로 원격 배포 (버전 관리/롤백)
최소 인력 개입 지속 성능 개선
약관/정책 전제
Business Model
  • 인터넷 연결 필수 – 모델 업데이트/버그 픽스/원격 진단
  • 데이터 수집/활용 동의 필수
  • 고객 메시지: “우리 공장 설비가 시간이 갈수록 더 똑똑해진다
Asset 현장 데이터 = 장기 경쟁력
Vision HW 카메라·해상도·동기화 설계

Xiris 등 상용 HDR 용접 카메라를 레퍼런스로 삼아, 0.1mm/px급 해상도와 ms 단위 동기화를 기반으로 전체 정밀도를 설계했습니다.

카메라 & 해상도
HDR & mm/px
  • HDR ≈ 140 dB, Global Shutter, 산업용 하우징
  • 실제 처리 ROI: 가로 40~60 mm를 512 px로 사용
  • 해상도: 약 0.08~0.12 mm/px
  • 세그멘테이션 2~3 px 오차 → 0.2~0.3 mm 수준
IPM + 왜곡 보정 중앙부 기준 mm/px
동기화 & 모션
Trigger & Blur
  • HW 트리거 지터: ≤ 1 ms → 위치 오차 0.01~0.02 mm
  • 노출 2~5 ms, 속도 8~17 mm/s → 블러 0.02~0.09 mm
  • 노출/블러 설계 상한: 0.1 mm
  • 트리거/동기화에 의한 오차는 전체 Error Budget에서 사실상 영향 미미
15 Hz 비전 추론 주기 (로봇 제어는 100~500 Hz)
Accuracy Error Budget & 정밀도 목표

개별 오차 요인을 mm 단위로 정의하고 제곱합으로 합산해, V1 시스템 95% 구간 ±0.6~0.7mm 목표를 수치적으로 뒷받침했습니다.

주요 오차 요인 (1σ)
Error Budget
  • 카메라/광학/보정/양자화: 0.10 mm
  • 세그멘테이션+중앙선 추출: 0.15 mm
  • 노출/모션 블러: 0.10 mm
  • HW 트리거/동기화: 0.02 mm
  • 로봇 반복정밀도/제어: 0.05 mm
≈ 0.21 mm RMS 1σ (정규 가정 시)
스펙 정의 방식
Reality Check
  • 이상적인 정규분포 2σ ≈ 0.43 mm
  • 실제 현장 데이터는 Outlier/Right-skewed 포함
  • 비전 중앙선 오차 95% 상한을 0.6~0.7 mm로 설정
  • 시스템 95% 목표도 동일 수준으로 스펙화
외부 메시지: ±0.7 mm 내부 목표: Median ≈ 0.2 mm
Vision Model 세그멘테이션 기반 비전 구조

노이즈가 심한 MIG 환경에서 파라미터 튜닝에 의존하지 않기 위해, 경량 세그멘테이션 + 중앙선 후처리 구조로 설계했습니다.

모델 구조
ERFNet + MobileNetV2
  • 백본: MobileNetV2 (임베디드 최적화)
  • 헤드: ERFNet 스타일 경량 세그멘테이션
  • CPU-only 환경에서 512×256 해상도 기준 15 FPS 목표
IoU ≥ 0.75 (시임/토우) ONNX / INT8 최적화
중앙선 품질 지표
Centerline Error
  • 중앙값(Median): ≤ 1.5~2.0 px (≈ 0.15~0.20 mm)
  • 평균(Mean): ≤ 2.0~2.5 px
  • 표준편차(σ): ≤ 1.5~2.0 px
  • 95% 상한: 6~7 px (≈ 0.6~0.7 mm)
px → mm mm/px ≈ 0.1 기준으로 설계
Control MoveC vs PPO & 실패 시나리오

기존 MoveC는 “설계선”만 따라가지만, 우리는 비전+PPO로 “실제 선”을 따라가는 로봇을 목표로 합니다. 연기/스패터 등 비전 실패 시에도 단계적 안전 방안을 설계했습니다.

PPO 기반 제어
Sim → Real
  • 비전에서 추출한 중앙선/오프셋/곡률 → 상태(State)
  • PPO 정책이 15 Hz로 로봇 TCP 보정량(Δx, Δy, Δθ) 결정
  • 로봇 저수준 제어는 100~500 Hz에서 spline 보간
  • Isaac Sim 기반 커리큘럼 학습으로 안정적 정책 확보
MoveC: 설계선 PPO: 실제선
비전 실패 대응
Safety
  • 비전 신뢰도 모니터링 (Confidence/연속성/급변 감지)
  • 단기 장애: 곡률 기반 0.1~0.3 s Dead Reckoning (1~5 mm 범위)
  • 장기 장애: Soft Stop + 아크 OFF
  • PPO 학습 시 Blind 시나리오 주입 → 급발진 억제
“버티다, 멈춘다” 단기 장애는 이어가고, 장기 장애는 안전 정지
Roadmap V1 스펙 & 이후 방향

V1에서 ±0.7mm 수준의 안정적인 추종을 달성하고, MLOps로 축적된 데이터를 활용해 V2에서 ±0.5mm, 더 복잡한 시임 형상까지 확장하는 것이 큰 그림입니다.

V1 – 현재 목표
Launch
  • 용접 속도: 0.5~1.0 m/min (8~17 mm/s)
  • 비전: 15 Hz / 로봇 제어: 100~500 Hz
  • 정밀도: 95% ±0.7 mm (시임 중앙 추종)
  • 카메라 기반 토우/중앙선 인식 + PPO 추종 상용화
“설비에 깔리는 첫 버전”
V2 – 고도화 방향
Next
  • MLOps 기반 데이터 축적·재학습 고도화
  • ±0.5 mm 정밀도 목표, 더 높은 속도/복잡 시임 대응
  • 공정별(필렛/버트/맞대기 등) 특화 모델 라인업 가능
  • 고객사별·라인별 맞춤형 정책(PPO Policy) 제공까지 확장
“쓰면 쓸수록” 시간이 지날수록 공정 품질·안정성 향상