브라우저나 PC에서 마이크로비트를 블루투스로 연결하려면, 현재 장치가 어떤 이름으로 표시되는지 먼저 확인해야 합니다. 수업 중 여러 대를 함께 사용할 때도 연결 대상을 구분하는 데 필요합니다.
음성, 사물, 얼굴, 제스처 인식 결과를 마이크로비트의 LED, 버튼, 센서, 모터 제어와 연결해 실제 피지컬 컴퓨팅 프로젝트로 이어지는 별도 작업 화면입니다.
브라우저나 PC에서 마이크로비트를 블루투스로 연결하려면, 현재 장치가 어떤 이름으로 표시되는지 먼저 확인해야 합니다. 수업 중 여러 대를 함께 사용할 때도 연결 대상을 구분하는 데 필요합니다.
브라우저에서 `시작` 음성을 인식하면 마이크로비트 LED에 아이콘이 나타나는 가장 단순한 루프부터 시작하는 것이 좋습니다.
AI 입력과 마이크로비트 출력을 연결해 바로 수업 프로젝트로 만들 수 있는 기본 솔루션 묶음입니다.
`시작`, `정지`, `왼쪽`, `오른쪽` 같은 음성 명령을 받아 LED, 서보, 부저 동작으로 연결합니다.
카메라가 특정 물체를 찾으면 마이크로비트 LED 아이콘, 소리, 진동 모듈로 반응하게 만듭니다.
손동작을 감지해 로봇카 방향 전환, 카운터 증가, 게임 제어 같은 인터랙션으로 확장합니다.
등록된 이름이 감지되면 개인별 환영 메시지나 점수 표시를 마이크로비트에 출력할 수 있습니다.
직접 학습한 손모양 모델의 결과를 버튼 입력처럼 사용해 프로젝트를 설계할 수 있습니다.
책, 컵, 필통 같은 일반 물체 클래스를 학습한 뒤, 인식 결과를 장치 제어 신호로 바꿉니다.
새 화면에서 앞으로 구현할 작업 흐름의 기준입니다.
이 화면은 앞으로 실제 제어 기능을 붙일 별도 작업 공간입니다.
브라우저 AI 결과를 화면 내 시뮬레이션 출력으로 연결
Web Serial 또는 중간 서버를 통해 Micro:bit와 데이터 연결
센서 피드백과 AI 판단을 함께 쓰는 양방향 프로젝트로 확장