AI가 판단하고
Micro:bit가 반응하는 수업

음성, 사물, 얼굴, 제스처 인식 결과를 마이크로비트의 LED, 버튼, 센서, 모터 제어와 연결해 실제 피지컬 컴퓨팅 프로젝트로 이어지는 별도 작업 화면입니다.

AI 이벤트 -> Micro:bit 출력 교육용 프로젝트 설계 센서/액추에이터 확장
마이크로비트 블루투스 이름 확인

브라우저나 PC에서 마이크로비트를 블루투스로 연결하려면, 현재 장치가 어떤 이름으로 표시되는지 먼저 확인해야 합니다. 수업 중 여러 대를 함께 사용할 때도 연결 대상을 구분하는 데 필요합니다.

권장 첫 프로젝트

브라우저에서 `시작` 음성을 인식하면 마이크로비트 LED에 아이콘이 나타나는 가장 단순한 루프부터 시작하는 것이 좋습니다.

활용 솔루션

AI 입력과 마이크로비트 출력을 연결해 바로 수업 프로젝트로 만들 수 있는 기본 솔루션 묶음입니다.

음성 명령 제어

`시작`, `정지`, `왼쪽`, `오른쪽` 같은 음성 명령을 받아 LED, 서보, 부저 동작으로 연결합니다.

사물 인식 알림

카메라가 특정 물체를 찾으면 마이크로비트 LED 아이콘, 소리, 진동 모듈로 반응하게 만듭니다.

제스처 인터랙션

손동작을 감지해 로봇카 방향 전환, 카운터 증가, 게임 제어 같은 인터랙션으로 확장합니다.

얼굴 기반 출석/환영

등록된 이름이 감지되면 개인별 환영 메시지나 점수 표시를 마이크로비트에 출력할 수 있습니다.

손모양 학습 연동

직접 학습한 손모양 모델의 결과를 버튼 입력처럼 사용해 프로젝트를 설계할 수 있습니다.

일반 모델학습 연동

책, 컵, 필통 같은 일반 물체 클래스를 학습한 뒤, 인식 결과를 장치 제어 신호로 바꿉니다.

작업 흐름

새 화면에서 앞으로 구현할 작업 흐름의 기준입니다.

1. 브라우저 AI 이벤트 만들기
  • 음성인식, 사물인식, 얼굴 인식, 제스처 인식 중 하나 선택
  • 이벤트 발생 조건 정의
  • 출력할 데이터 형식 설계
2. Micro:bit 출력 연결
  • LED 표시, 부저, 모터, 센서, 로봇카 중 출력 선택
  • 웹과 장치 간 전달 방식 설계
  • 테스트용 시뮬레이션 루프 구성

확장 계획

이 화면은 앞으로 실제 제어 기능을 붙일 별도 작업 공간입니다.

1단계

브라우저 AI 결과를 화면 내 시뮬레이션 출력으로 연결

2단계

Web Serial 또는 중간 서버를 통해 Micro:bit와 데이터 연결

3단계

센서 피드백과 AI 판단을 함께 쓰는 양방향 프로젝트로 확장