본문 바로가기

Broad AI without NLP10

[Mathpresso] 2023년도 ~4월 행보 정리 들어가며,, 매스프레소 회사 및 콴다 제품이 시장에서 어떤 평가를 받고 있는지, 그들의 행보는 어떠한지 등등 꾸준히 팔로업 하기 위해 쓰는 글임을 밝힙니다. 이제 본격적으로 EduTech 쪽으로 이직을 실행하기 위한 준비를 하고 있습니다. EduTech 기업 중 가장 관심이 많은 매스프레소 이직을 꿈꾸며 기업의 행보를 F/U 하고 있습니다. 23년도 4월까지 매스프레소는 어떤 행보를 보였을까요? AI 기반 학습 플랫폼 ‘콴다’, 학교 기출 서비스 대폭 개편… 전국구, 주요 과목 확장 (23.03.30) 작년 11월에 출시한 학교 기출 서비스를 대폭 개편했다. 학교 기출 서비스는 콴다 앱 내에서 중, 고등학교 내신 기출 문제와 해설을 구매할 수 있는 서비스 동네 학원을 통해서만 접근할 수 있었던 내신 기출.. 2023. 4. 22.
[Mathpresso] 2022년도 마무리 정리 들어가며,, 매스프레소 회사 및 콴다 제품이 시장에서 어떤 평가를 받고 있는지, 그들의 행보는 어떠한지 등등 꾸준히 팔로업 하기 위해 쓰는 글임을 밝힙니다. 최근 회사에서 제품 개발에 의해 너무 바빠 정말 오랜만에 포스팅합니다. EduTech 에 관심이 많아 매스프레소 이직을 꿈꾸며 기업의 행보를 F/U 하고 있습니다. 22년도 4분기의 매스프레소는 어떤 행보를 보였을까요? 인공지능 학습앱 ‘콴다’ 매스프레소, 시리즈C 770억원, 총 누적 1430억원 유치...글로벌 AI 교육 슈퍼 앱으로! (22.12.13) 13일 매스프레소에 따르면, 이번 투자에는 신세계그룹의 벤처캐피탈 (CVC)인 시그나이트파트너스, 국내 대표 교육기업 YBM이 신규 투자사로 합류하였으며, 기존 투자사인 굿워터 캐피탈, 소프트뱅.. 2023. 2. 12.
[Mathpresso] 회사 및 제품의 방향성 F/U 들어가며,, 매스프레소 회사 및 콴다 제품이 시장에서 어떤 평가를 받고 있는지, 그들의 행보는 어떠한지 등등 꾸준히 팔로업 하기 위해 쓰는 글임을 밝힙니다. '콴다' 운영사 매스프레소, 구글에게 투자받았다 (21.11.10) 인공지능(AI) 스타트업 매스프레소가 글로벌 기업 구글로부터 전략적 투자를 유치했다고 10일 공시했다. AI 기반으로 개인별 맞춤화된 학습 콘텐츠를 제공하는 추천 모델도 개발, 고도화 중이다. 구글은 매스프레소의 풍부한 데이터와 AI 역량을 높이 평가해 투자를 결정한 것으로 알려졌다. 매스프레소는 앞선 올 7월 560억 원 규모의 시리즈 C 투자를 유치했다. 누적 투자액은 1200억 원에 이른다. https://www.hankyung.com/it/article/202111108055.. 2022. 11. 9.
[이모저모] 플랫폼을 만들기 위해서는 무엇이 필요 할까? 들어가며,, 유저에게 편의를 제공하는 어떤 플랫폼을 만들기 위해서는 다양한 기술이 필요하다. 서버 및 데이터를 관리하는 엔지니어, 알고리즘 기술을 만드는 데이터 사이언티스트, 플랫폼과 알고리즘을 연결시키는 백앤드 개발자, 유저에게 화면을 제공하는 프론트앤드 개발자와 UI/UX 전문가, 제품을 홍보하고 판매하는 영업팀 등등... 이 중 데이터 사이언티스트의 역할 기준으로 무엇이 필요한지 정리할겸 포스팅한다. ※ 해당 포스팅의 목적은 언젠간 Edutech 관련 기업으로 이직했을 때를 대비한 공부를 위함이기에 해당 글의 Category는 Education으로 지정했다. What we need ? 필자가 현재 알고 있는 것들을 끄적인다. (아닐수도 있고 높은 확률로 필요한게 더 많을 것이다.) 딥러닝 모델 학습.. 2022. 8. 24.
[Mathpresso] 콴다에서 AI 기술 활용 정리 들어가며,, 필자는 edutech 분야에 관심이 많다. 많은 청소년들이 고품질의 수학 교육을 받았으면 좋겠다는 생각이 있기 때문이다. 필자 생각에는 메스프레소 기업이 수학 교육 플랫폼 시장 1위를 달리고 있다고 생각하기 때문에 해당 기업의 연구를 추적하고자 한다. 본 글은 21년 6월 23일 메스프레소 엔지니어인 Sean Park 님께서 콴다 블로그에 기록한 글을 기준으로 정리하였다. 출처: https://blog.mathpresso.com/%EB%A7%A4%EC%8A%A4%ED%94%84%EB%A0%88%EC%86%8C%EC%97%90%EC%84%9C-ai-%EA%B8%B0%EC%88%A0%EC%9D%80-%EC%96%B4%EB%96%BB%EA%B2%8C-%ED%99%9C%EC%9A%A9%EB%90%9.. 2022. 8. 24.
[소개] Deep Learning Compiler 란? 들어가며.. 현대를 살아는 대부분의 사람들이 자주 접하는 AI 기술은 챗봇이지 않을까? 챗봇 기술은 대부분 작은 기기에 내장되어 동작한다. 우리가 흔히 접할 수 있는 예로는 '인공지능 스피커', '시리', '빅스비' 등이 있다. 인공지능을 자주 접한 사람, 그 중 초거대 언어 모델에 대해 조금이라도 들어본 사람이라면 이런 의문이 들 수 있다. '아니 이렇게 작은 기기에서 어떻게 챗봇이 동작할 수 있을까?' 이 의문의 답이 바로 본 포스팅에서 소개할 'Deep Learning Compiler' 이다. 초거대 언어 모델이란? 필자가 포스팅한 아래 링크를 참고하길 바란다. https://beeny-ds.tistory.com/21 [소개] 초거대 언어 모델이란? 들어가며.. 최근 여러 대기업에서 자신들이 만든 .. 2022. 7. 16.
Knowledge Tracing datasets 데이터 이름 문제를 푼 수 학생 수 유형 수 nan 유형 ASSIST2009 401,756 개 4,217 명 110 skill_name 변수 = nan ASSIST2012 1,371,935 개 43,881 명 262 skill_id 변수 = nan ASSIST2015 708,631 개 19,917 명 100 sequence_id 변수에는 nan 없음 ASSIST2017 273,248 개 382 명 101 skill 변수에는 nan 없음 EdNet 131,441,538 개 784,309 명 188 EdNet/contents/questions.csv 데이터에서 tag 변수 = ‘-1’ 값이 nan Knowledge Tracing: A Survey paper link EduData repository →교육 .. 2022. 6. 23.
[SAINT+] Integrating Temporal Features for EdNet Correctness Prediction Riiid AI Research team 2021년 2월 1일 논문 발간 Overview 💡 SAINT와 거의 유사하지만 추가적인 정보(input data)가 더 들어가 성능을 약 1% 향상시킴 SAINT 모델 Overview와 같은 내용 SAINT 모델 이전에 어텐센을 적용한 모델(ex. SAKT model)은 input 데이터(ex. IRT)의 복잡한 관계를 반영하지 못했다. SAINT 모델은 input 데이터의 적절한 활용을 제안하여 EdNet 데이터 셋(=KT 모델 관련 밴치마크 데이터셋)에 대해 좋은 성능을 보였다. SAINT 모델이 input 데이터를 활용하는 방법은 다음과 같다. Encoder-Decoder transformer architecture 사용 인코더에서 문제 관련된 정보를 사용.. 2022. 6. 23.
[SAINT] Towards an Appropriate Query, Key, and Value Computation for Knowledge Tracing Riiid AI Research team 2020년 2월 14일 논문 발간 Overview 💡 어떤 학생이 문제를 푼 히스토리가 주어졌을 때, 모델은 새로운 문제를 학생이 맞출지 여부를 예측. 이때 모델(SAINT)은 transformer의 self-attention을 활용한다. SAINT 모델 이전에 어텐센을 적용한 모델(ex. SAKT model)은 input 데이터(ex. IRT)의 복잡한 관계를 반영하지 못했다. SAINT 모델은 input 데이터의 적절한 활용을 제안하여 EdNet 데이터 셋(=KT 모델 관련 밴치마크 데이터셋)에 대해 좋은 성능을 보였다. SAINT 모델이 input 데이터를 활용하는 방법은 다음과 같다. Encoder-Decoder transformer architecture.. 2022. 6. 23.
[SAKT] A Self-Attentive model for Knowledge Tracing 미네소타 대학 2019년 7월 16일 논문 발간 Overview 💡 Transformer의 attention mechanism에 착안하여, 학생의 과거 학습 기록과 주어진 문제간의 연관성을 계산하여 정오답을 예측하는 모델. - Knowledge concepts 간의 연관성을 이용 정오답을 예측하고자 하는 문제는 이전에 풀었던 문제들과 연관성을 고려하여 예측 가정: 5번 문제를 맞췄는지, 틀렸는지 예측하고자 할 때, 이전에 풀었던 문제들 중 4번 문제 및 2번 문제와 연관성이 크기 때문에 5번 문제에 대한 정오답 여부는 4번 문제와 2번 문제의 정오답 여부와 관련이 클 것이다. 이러한 개념을 Knowledge Concepts(a.k.a KCs)라고 함. SAKT 💡 Deep Knowledge Tracing.. 2022. 6. 22.
반응형