AI 시대의 수비지표 2편 – 수비 데이터셋과 크라우드소싱

< 일러스트 = 야구공작소 이동헌 >

AI 시대의 수비지표 1편 – OAA 데이터 구하기

# 서론 : 우리는 몇 개의 데이터를 만들어야 할까?

지난 칼럼에서 우리는 수비 동작 분석에 대하여 데이터를 쌓을 필요성을 이야기했다. 수비수의 관절 위치, 이동 궤적, 글러브를 뻗는 타이밍 같은 동작 정보. 그리고 스텝 방향이 적절했는가“, “송구 자세가 효율적이었는가같은 평가 라벨 등이 필요할 것이라고 언급했었다. 데이터는 게임로그나 트래킹 데이터와는 다르다. 자동으로 수집되지 않는다. 누군가 영상을 보고 판단하여 수많은 상황에 대해 라벨을 붙여주어야 한다.

이런 종류의 데이터를 대량으로 만들려면 어떻게 해야 할까? 경기당 우리는 54개의 아웃카운트를 잡고, KBO 기준으로는 720경기가 정규시즌에 열리니 정규시즌의 아웃카운트를 잡는 데이터는 39,000개에 육박한다. 이것을 10년동안 수집한다면 40만개에 육박하는 아웃카운트를 수집해야 하며 안타에 대해서도 분석하려면 많은 플레이 상황을 분석해야 것이다. 전문가 수십 명을 고용해서 수십만 개의 플레이에 대해 선수의 관절 위치, 이동 궤적, 동작 정보, 평가 라벨까지 모두 라벨을 붙이도록 수도 있겠지만 비용과 시간을 생각하면 쉽지 않다. 다른 방법을 생각해볼 있다. 이번 칼럼에서는 이러한 문제를 극복하기 위한 방법을 모색해본다.

 

# 비전문가와의 협업이 보여준 것

Tom Tango Fan Scouting Report 참고할 만한 사례다. 2003년부터 2017년까지 운영된 프로젝트에서 Tango 평가 프레임워크를 설계했고, 매년 수천 명의 팬이 실제 평가를 수행했다. 규칙은 엄격했다. 최소 10경기 이상 직접 관람한 팬만 평가할 있었고, 7 항목을 5 척도로 평가하되 어떤 통계도 참조하지 말고 오직 눈으로 것만 평가해야 했다.

결과는 의미 있었다. 평가가 UZR 높은 상관관계를 보였고, 특히 외야수 송구 능력의 경우 충분한 샘플이 쌓였을 0.78 상관계수를 기록했다. 전문가가 기준을 세우고, 비전문가가 규모를 제공하는 구조가 작동한 사례다.

< FSR과 실제 기록간 상관관계. 더 많은 양의 데이터가 들어올수록 더 높은 상관관계를 보임을 알 수 있다. >

GameChanger 비슷하다. 2009 출시된 앱은 소프트웨어 전문가들이 플랫폼을 만들고, 부모와 코치들이 자발적으로 경기를 기록하는 구조로 운영됐다. 현재 1,300만 회 이상의 경기가 기록되어 있고, 2022년에는 NFHS(전미 고등학교 체육연맹) 공식 파트너로 선정했다.

야구 바깥을 보면 규모의 사례가 있다. ImageNet COCO 데이터셋은 물체의 위치 예측과 인간의 관절 예측에서 거대한 데이터셋을 크라우드소싱하여 만들어졌다. 이러한 데이터셋은 컴퓨터 비전 분야의 거대한 발전으로 이어졌다.

< COCO 데이터셋. 총 17개의 관절로 이루어진 여러명의 사람을 포함한 데이터셋이다. >

사례들에서 공통점을 찾을 있다. 전문가는무엇을 평가할 것인가 설계하고, 비전문가는 기준에 따라 대량의 판단을 수행한다. 기준이 명확하고 선택지가 단순할수록 비전문가의 참여가 쉬워지고, 데이터의 일관성도 높아진다. Fan Scouting Report 7 항목 5 척도, ImageNet 사진에 X 있는가라는 이진 질문이 그런 구조였다.

 

# 수비 데이터셋과 크라우드소싱

앞서 설명한 Fan Scouting Report눈으로 수비 인상 수집했다면, 우리가 데이터셋을 통해 이야기하고자 하는 동작의 질에 대한 평가. 호크아이가 선수의 자세를 추적할 있지만, 낮은 프레임레이트로 인해 일부 신체 부위의 모션 블러 문제가 발생해 질에 문제가 생길 있다. 기존에 만들어놓은 인공지능 모델을 쓰더라도 한계는 변하지 않는다. 그리고 설령 인공지능 모델을 통해 관절의 위치를 정확히 찾을 있다 해도 자세가 효율적이었는지 아닌지는 여전히 사람의 판단이 필요할 것이다.

데이터셋을 만들기 위한 전문가와 비전문가의 협업 구조는 이렇게 있을 것이다. 전문가가 평가 기준을 설계한다. “좋은 스텝이란 무엇인가“, “효율적인 송구 자세란 무엇인가 정의하고, 구체적인 체크리스트를 만든다. 비전문가는 영상을 보며 기준에 따라 라벨링한다. “ 플레이에서 스텝 방향은 적절했는가?” 같은 질문에 /아니오로 답하는 방식이다.

Fan Scouting Report 7 항목, 5 척도로 평가를 구조화했듯이, 수비 동작 평가도 명확한 기준과 단순한 선택지로 구조화할 있을 것이다. 관절 위치 자체는 AI 어느 정도 찾아줄 있으니, 사람은 위에서 동작이 적절했는가 판단하는 역할을 맡게 된다.

물론 쉽지 않다. Fan Scouting Report송구 능력이 좋아 보이는가라는 직관적 질문이었지만, “ 스텝의 타이밍이 적절했는가 훨씬 기술적인 판단이다. 평가 기준을 어떻게 설계하느냐에 따라 데이터의 품질이 달라질 것이다. 전문가의 역할이 그래서 중요하다.

품질 관리도 생각해야 한다. ImageNet 같은 이미지를 여러 작업자에게 보여주고 다수결로 라벨을 확정했다. Fan Scouting Report 충분한 샘플이 쌓여야 신뢰할 있다는 점을 명시했다. 수비 동작 평가도 비슷한 방식이 필요할 것이다. 가령 플레이를 여러 명이 평가하고, 일치도가 낮은 경우를 따로 검토하는 구조를 생각해볼 있다.

 

# 어쩌면 가능할지도 모른다

지난 칼럼이 수비 지표를 위한 데이터셋의 필요성에 대해 논했다면, 이번 칼럼에서는 데이터를 만들 있는 방법으로 전문가와 비전문가의 협력을 제시하였다. Fan Scouting Report 14년간 보여줬고, ImageNet 컴퓨터 비전에서 증명한 방식이다.

사실 방법만이 수비 데이터에 맥락을 반영할 유일한 방법은 아니다. 기존 OAA 모델에 강화학습을 적용하는 접근도 있을 있고, 호크아이 데이터를 정교하게 활용하는 방법도 있을 것이다. 평가 기준을 어떻게 설계할지, 품질을 어떻게 관리할지, 참여를 어떻게 유지할지 , 제시한 방안에는 풀어야 문제가 많다. 그럼에도 불구하고 이전의 성공 사례들을 고려한다면 시도해볼만한 가치는 있지 않을까 한다.

 

야구공작소 표상훈 칼럼니스트

에디터 = 야구공작소 박두산, 장호재

일러스트 = 야구공작소 이동헌

ⓒ야구공작소. 출처 표기 없는 무단 전재 및 재배포를 금합니다. 상업적 사용은 별도 문의 바랍니다.

Be the first to comment

댓글 남기기