戴育教仪厂内部网
Language:

Dispositivo de entrenamiento integral de inteligencia artificial DYRGZN-01

发布时间:2024-08-29 05:30浏览次数:times
  • Dispositivo de entrenamiento integral de inteligencia artificial DYRGZN-01

1. Composición de la estructura del producto

El sistema incluye un brazo robótico de seis grados de libertad , una cámara de visión AI de gran dinámica, un terminal de procesamiento de borde Jetson Nano, una unidad de visualización de computación de borde de 17,3 pulgadas, un paquete de recursos de aplicación de escena de visión artificial y puede simular la inteligencia artificial típica. escenarios de aplicación y realizar experimentos de enseñanza de tecnología de aplicación de inteligencia artificial.

El sistema de plataforma de enseñanza está preinstalado con el sistema operativo Ubuntu 18.04. Todos los archivos de la biblioteca de códigos de entorno se han instalado y se pueden utilizar inmediatamente después del inicio. Basado en la plataforma de práctica de aprendizaje multidimensional, paso a paso de lo más superficial a lo más profundo, comenzando desde la expansión GPIO independiente básica, pasando a proyectos experimentales de sensores y luego ingresando a OpenCVPyTorch, sistema ROS, cinemática de máquina, visión artificial de IA, IA. Audición de reconocimiento de voz, etc., para aprender el desarrollo de inteligencia artificial AI.

El código fuente del algoritmo proporcionado (incluida la detección de rostros, el reconocimiento de matrículas, la clasificación de basura y la detección de objetivos) es compatible con los modelos de capacitación y API de Caffe/TensorFlow/MXNet, lo que permite a los estudiantes tener una mejor comprensión de los procesos y métodos de procesamiento de la visión artificial. Familiarizarse con algoritmos relevantes, comprender escenarios de aplicaciones prácticas y estar cerca de las aplicaciones de ingeniería.

1. Plataforma informática de borde JetsonNano

NVIDIA Jetson Nano es una computadora pequeña pero poderosa que le permite ejecutar múltiples redes neuronales, aplicaciones de detección de objetos, segmentación y procesamiento de voz en paralelo. Jetson Nano está equipado con un procesador Cortex-A57 de cuatro núcleos, una GPU Maxwell de 128 núcleos y 4 GB. La memoria LPDDR brinda suficiente potencia informática de IA, proporciona potencia informática 472GFLOP y admite una serie de marcos y algoritmos de IA populares, como TensorFlow, Pytorch.caffe/caffe2, Keras, MXNET, etc.

2. Visión artificial (brazo robótico)

El brazo del robot visual utiliza Jetson nano como control principal, Open Source CV como biblioteca de procesamiento de imágenes, el Jupyter Lab convencional como herramienta de desarrollo y Python3 como lenguaje de programación principal. La cámara y el brazo del robot están integrados en el cuerpo. El reconocimiento visual de "integración ojo-mano" hace que el brazo del robot sea más ágil. No solo puede realizar el reconocimiento, seguimiento y captura de colores, sino también el reconocimiento y la interacción de las características del cuerpo humano. incluso entrene modelos de clasificación de basura; a través del sistema de control del robot RO5, se simplifica el complejo control de movimiento del servo de bus en serie de 6 grados de libertad.

Cámara 1080P: Tamaño del elemento fotosensible: 1/237" Resolución máxima efectiva: 1928*1088; Formato de datos: YUY2/MJPG; Tamaño de píxel: 3,0 μm*3,0 μm; Amplio rango dinámico: 96 DB; Control automático: saturación, contraste, nitidez, balance de blancos, exposición.

Brazo robótico: placa de control del procesador central Cortex-M3, brazo robótico de escritorio con grado de libertad, servo inteligente de bus serie de alta potencia, extensión del brazo 350 mm, carga ≥300 g, con pinza, cuerpo de aleación de aluminio anodizado, principalmente para el control de robots industriales. brazos. Admite programación Python, que puede ajustar de manera flexible y precisa el ángulo y la posición de cada articulación; admite computadora host de PC, aplicación móvil y control de controlador de juegos USB;

3. Matriz de micrófonos de reconocimiento de voz

El conjunto de micrófonos está diseñado en base al chip de micrófono digital MSM261S4030H0. El módulo tiene una alta sensibilidad de reconocimiento de sonido y relación señal-ruido, y puede usarse en localización de fuentes de sonido, reconocimiento de voz, formación de haces y otras situaciones exigentes.

1. :RISC-V Dual Core 64bit, con núcleo, frecuencia principal 400MHz, 8M Byte, conjunto de micrófonos de reconocimiento de voz incorporado (8mics), modelo de red: admite YOLOv3 \ Mobilenetv2 \ TinyYOLOv2, admite marcos convencionales como TensorFlow/Keras/ Darknet/Café

2. Micrófono: matriz 6+1 MSM261S4030H0 (nivel de presión sonora: 140 dB SPL, sensibilidad: -26, relación señal-ruido: 57 dB, THD <1 %, frecuencia de reloj: 1,0-4,0 MHz en modo normal, 150-800 kHz modo de bajo consumo de energía)

2. Iluminación: 12 LED en cascada a través de líneas de señal duales (color y brillo ajustables)

3. Admite localización de fuentes de sonido, navegación por voz, interacción de voz y reconocimiento de voz sin conexión.

4. Lídar

En comparación con la tecnología tradicional, el uso de equipos láser infrarrojos puede lograr multitáctil en pantallas ultragrandes, con una respuesta más rápida, mayor precisión y mayor resistencia a la luz ambiental. Como sensor central, lidar puede obtener rápidamente información de contorno ambiental. Cuando se usa con SLAMWARE, puede ayudar a los robots a construir mapas de forma independiente, planificar caminos en tiempo real y evitar obstáculos automáticamente. Áreas de aplicación: barredoras inteligentes y robots domésticos.

Radio de medición: 12 metros, frecuencia de medición: 8000 veces/segundo, frecuencia de escaneo: 5,5 HZ, rango de escaneo de 360 grados

Dirección de aplicación de ingeniería.

1. Aplicaciones básicas de visión por computadora y control de movimiento de brazos robóticos.

   (1) Posicionamiento visual: coloque cualquier objeto en el campo de visión, segméntelo (enmarquelo) en la imagen y genere las coordenadas del punto central;

(2) Reconocimiento y clasificación de colores: se mezclan varios colores y se colocan en el campo de visión, uno para cada color. El brazo de control selecciona un color determinado y lo coloca en un lado;

(3) Reconocimiento y apilamiento de colores: se mezclan varios colores y se colocan en el campo de visión, como dos, dos de cada color, y se controla el brazo para tomar un determinado color y se apilan, o se apilan varios colores por separado;

(4) Reconocimiento y clasificación de formas: se mezclan varias formas y se colocan en el campo de visión, cada forma está separada y el brazo de control selecciona una determinada forma y la coloca en un lado;

(5) Reconocimiento y apilamiento de formas: se mezclan y colocan varias formas en el campo de visión, como dos tipos, dos de cada forma, y se controla el brazo para agarrar una determinada forma y apilarla, o se apilan varias formas por separado. ;

(6) Los objetivos de una sola forma se clasifican por tamaño: de la misma forma, coloque objetos de tres tamaños diferentes en el campo de visión y controle los brazos para colocarlos en orden de grande a pequeño;

(7) Se apilan múltiples formas de objetivos según su forma y tamaño al mismo tiempo: tres formas, cada forma coloca objetos de tres tamaños diferentes en el campo de visión, y el brazo de control se apila según diferentes formas y en orden de de grande a pequeño (es decir, tres pilas, todas de grande a pequeño);

(8) Clasificación de basura: pegue patrones de diferentes objetos en el objetivo, como repollo, botellas de vidrio marcadas como artículos tóxicos y cartones, y colóquelos en el campo de visión. A través de la configuración, el brazo robótico se controla para clasificar los desechos de alimentos. , residuos peligrosos y residuos reciclables.

(9) Interacción de gestos: por ejemplo, si estira 1, 2, 3 y 4 dedos, el brazo del robot se moverá hacia arriba, abajo, izquierda y derecha respectivamente, y si estira 5 dedos, se formará un círculo. estirado;

(10) Seguimiento del objetivo: el operador sostiene una bola pequeña y el brazo del robot reconoce la bola pequeña (forma o color) y se mueve con el movimiento de la bola pequeña;

(11) Clasificación y reconocimiento óptico de caracteres OCR: los caracteres se fijan al objetivo y se colocan en desorden (se puede requerir que los caracteres miren en la misma dirección, pero el orden es desordenado) y el brazo robótico los coloca en el orden de 123456 mediante reconocimiento visual Colóquelo en el lugar designado

2. Visión por computadora y reconocimiento facial, reconocimiento de matrículas y otras aplicaciones.

(1) Reconocimiento facial: ingrese el rostro con anticipación y reconozca el nuevo rostro. Si el reconocimiento es exitoso, aparecerá la información de la persona. Si no se reconoce el rostro, le indicará que la persona no está en el sistema.

(2) Control de acceso facial: después de reconocer el rostro, el sistema de control de acceso se enciende y la luz indicadora verde se enciende. Si no se puede reconocer el rostro, se enciende la luz indicadora amarilla, lo que indica que no hay información sobre. la persona;

(3) Advertencia de intrusión de personal: Igual que el anterior. Si se reconoce la misma cara más de 3 veces seguidas y se muestra que no está en el sistema, la luz roja se encenderá y el timbre sonará al mismo tiempo;

(4) Reconocimiento de matrícula: ingrese la matrícula con anticipación y reconozca la nueva matrícula. Si el reconocimiento se realiza correctamente, aparecerá la información del propietario del vehículo y se encenderá la luz indicadora verde. Si no se reconoce, se encenderá la amarilla. La luz se encenderá y avisará que el vehículo no está en el sistema;

(5) Advertencia de intrusión de vehículo: Igual que el anterior. Si la misma matrícula es reconocida más de 3 veces seguidas y no está en el sistema, la luz roja se encenderá y sonará el timbre al mismo tiempo;

(6) Reconocimiento y seguimiento de objetivos en movimiento: utilice el reconocimiento de video en tiempo real para identificar una o más personas en el campo de visión, encuadrarlas, marcar la cantidad de personas identificadas y rastrear a las personas a medida que se mueven;

3. Reconocimiento de voz y sistemas domésticos inteligentes

(1) Control de acceso inteligente: marque la voz con anticipación y configure el comando de voz y el algoritmo de control del sistema de control de acceso para realizar la apertura automática del sistema de control de acceso si se emite el comando "abrir la puerta";

(2) Control de iluminación inteligente: marque la voz con anticipación y configure el comando de voz y el algoritmo de control de iluminación para realizar la acción de encender automáticamente las luces si se emite un comando de "encender las luces";

(3) Control inteligente del ventilador: marque la voz con anticipación y configure el comando de voz y el algoritmo de control del ventilador para realizar la acción de encender automáticamente el ventilador si se emite el comando "encender el ventilador";

(4) Detección inteligente de temperatura y humedad: marque la voz con anticipación y configure el comando de voz y el algoritmo de control del sensor de temperatura y humedad para darse cuenta de que si se emite el comando "¿Cuál es la temperatura hoy?", el sensor se encenderá automáticamente y muestra la temperatura ambiente y la humedad actuales en la acción de la pantalla.

El software de capacitación en simulación Siemens plc incluye instrucciones básicas, instrucciones de aplicación e instrucciones de control de secuencia.

1. Instrucciones básicas: control de arranque y parada del motor, control de rotación hacia adelante y hacia atrás del motor, rotación hacia adelante y hacia atrás de la motocicleta, operación reversible y frenado inverso, control de motor de tres velocidades , control de arranque reductor en ángulo de estrella, control de iluminación de tubo digital , control de semáforo , Nueve elementos de control del sistema de suministro de agua a presión constante.

1. El control de arranque y parada del motor incluye siete elementos: requisitos de capacitación práctica, dispositivos de capacitación práctica, diseño del dispositivo, distribución de E/S, diagrama en forma de T, conexión del circuito y operación de encendido.

(1) Requisitos de formación práctica: Visualización en forma de texto e imágenes. Resuma los principales puntos de conocimiento y comprenda que los principales contenidos de aprendizaje de este módulo incluyen los métodos de programación de circuitos de control en dos lugares, aprender a controlar y diseñar realmente los circuitos periféricos de PLC y aprender a diseñar diagramas de escalera simples para los requisitos de control reales. de la sucursal.

(2) Dispositivos de capacitación práctica: enumere todos los dispositivos utilizados en la unidad de control de arranque y parada del motor, incluidos motores asíncronos trifásicos, PLC, contactores de CA, disyuntores trifásicos, fusibles, relés térmicos, botones de arranque y botones de parada.

(3) Diseño del dispositivo: coloque los dispositivos simulados en la biblioteca de dispositivos en las posiciones correspondientes en el gabinete de distribución de energía simulado para capacitar a los estudiantes para que comprendan los dispositivos y circuitos. Debe haber símbolos correspondientes en el circuito. Si se arrastra el dispositivo incorrecto, el dispositivo no se arrastrará y habrá una visualización de sonido correspondiente.

(4) Asignación de E/S: hay direcciones de asignación de E/S y diagramas de circuito en el software. Después de hacer clic con el mouse en los recursos de direcciones asignados, se mostrarán las imágenes correspondientes para permitir a los estudiantes comprender mejor el modelo del dispositivo y el diagrama de circuito.

(5) Diagrama en forma de T: se proporciona un diagrama en forma de T con los símbolos faltantes y los símbolos correspondientes. Los estudiantes usan el mouse para arrastrar los símbolos al diagrama en forma de T según el conocimiento que han aprendido. Los símbolos permanecerán en el diagrama en forma de T. Si son incorrectos, los símbolos permanecerán en el diagrama en forma de T y desaparecerán.

(6) Conexión del circuito: 

La línea que parpadea en el diagrama esquemático es el circuito que debe estar conectado actualmente. Utilice el mouse para hacer clic en uno de los dos contactos que conectan esta línea, luego arrastre el mouse para encontrar el otro contacto y haga clic en la conexión. Aparecerá una línea. Si la línea es incorrecta, la línea desaparecerá. Solo cuando la línea esté conectada correctamente se podrá conectar la siguiente línea. Si tiene dificultades con el cableado, haga clic en el botón "Responder". Después de hacer clic, aparecerá el diagrama de cableado completo. Puede consultar el diagrama para completar las operaciones que realizó. Haga clic en el botón "Responder" nuevamente y la respuesta desaparecerá.

Puede realizar la conexión libremente consultando el diagrama del circuito. Si no sabe cómo, puede hacer clic en el mensaje. Haga clic en cualquier punto de acceso de cableado con el mouse y el otro extremo del punto de acceso parpadeará.

(7) Operación de encendido: realizada mediante entrenamiento de simulación. Después de encender, puede presionar el interruptor correspondiente de acuerdo con los pasos operativos y podrá observar visualmente el funcionamiento del circuito. Al mismo tiempo, se puede combinar con los efectos de sonido para simular la escena real y lograr el efecto de simulación. .

Apoyar el contenido experimental 

Experimento de la parte básica de Python

Capítulo 1 Pitón

Capítulo 2 Cómo configurar y utilizar el entorno de desarrollo

Capítulo 3 Conceptos básicos de Python

3.1 Sintaxis de Python

3.2 Sangría de Python

3.3 anotaciones de Python

3.4 variables de Python

3.5 Python introduce la ayuda exterior

3.6 tipos de datos básicos de Python

3.7 Operadores de uso común en Python

Capítulo 4 Bifurcación y bucles de Python

4.1 Ramas y bucles de Python

4.2 Expresiones y afirmaciones condicionales de Python

4.3 declaraciones de bucle de Python

Capítulo 5 Python avanzado

5.1 listas de Python

5.2 tuplas de Python

5.3 cadenas de Python

5.4 Secuencias de Python

5.5 Diccionario de Python

5.6 colecciones de Python

Capítulo 6 Funciones de Python

6.1 Creación y llamada de funciones de Python

6.2 Parámetros y valores de retorno de funciones de Python

6.3 Variables de funciones de Python

6.4 Programación funcional de Python

6.5 recursividad de Python

Capítulo 7 Almacenamiento de Python

7.1 archivos Python

7.2 Sistema de archivos Python (SO)

Capítulo 8 Manejo de excepciones de Python

8.1 Declaración try-except de Python

8.2 Declaración de prueba final de Python

8.3 Declaración de aumento de Python

Capítulo 9 Clases y objetos de Python

9.1 objetos de Python

9.2 Herencia de Python

9.3 Herencia múltiple de Python

9.4 combinación de Python

9.5 Métodos mágicos de Python: construcción y destrucción

Capítulo 10 Módulo Python

10.1 módulos de Python

10.2 paquetes de Python

Experimento parcial de PyQT

Capítulo 1 PyQt5

Capítulo 2 Cómo configurar y utilizar el entorno de desarrollo PyQt5

Capítulo 3 El primer programa de ventana PyQt5

3.1 Proceso de desarrollo de aplicaciones PyQt5 del lado de la PC

3.2 Aplicaciones PyQt5 ejecutándose en el borde

Capítulo 4 Conceptos básicos del diseño de ventanas PyQt5

4.1 Propiedades y configuraciones de ventana única

4.2 Señales y Ranuras

4.3 Diseño de ventanas múltiples

Capítulo 5 Diseño de control común de PyQt5

5.1 Desarrollo de clases de texto (Label, TextEdit, SpinBox)

5.2 Desarrollo de clases de botones (PushButton, CheckBox)

5.3 Clase de fecha y hora (Data/TimeEdit)

5.4 Clase de barra de progreso (ProgressBar)

5.5 Clase de diálogo (QMessageBox)

Capítulo 6 Gestión de diseño de PyQt5

6.1 Diseño lineal

6.2 Diseño de cuadrícula GridLayout

Capítulo 7 Base de datos PyQt5

7.1 Base de datos SQLite

7.2 Base de datos MySQL

Capítulo 8 Operaciones de archivos PyQt5

Capítulo 9 Programación multiproceso PyQt5

9.1 Clase de temporizador QTimer

9.2 Clase de hilo QThread

Capítulo 10 Empaquetado del programa PyQt5

Capítulo 11 Programación de la red PyQt5

Capítulo 12 Programación de Internet de las cosas PyQt5

12.2 Adquisición y visualización de datos de sensores de IoT

12.3 Control del actuador de IoT

Experimento parcial de visión artificial

Capítulo 1 Descripción de la visión artificial

1.1 Introducción a la visión artificial

1.1.1 Introducción a la visión artificial

1.1.2 Desarrollo de la visión artificial

1.2 Introducción a OpenCV

1.2.1 Introducción a OpenCV

1.2.2 Diagrama de estructura OpenCV

Capítulo 2 Cómo configurar y utilizar el entorno de desarrollo

Capítulo 3 Conceptos básicos de imágenes OpenCV

3.1 OpenCV lee imágenes

3.2 Imagen de visualización OpenCV

3.3 Guardar imagen de OpenCV

Capítulo 4 Conceptos básicos del vídeo OpenCV

4.1 Cámara de captura OpenCV

4.2 OpenCV lee video

4.3 Vídeo de visualización OpenCV

4.4 Guardar vídeo con OpenCV

Capítulo 5 Función de dibujo OpenCV

5.1 Dibujar líneas

5.2 Dibujar un rectángulo

5.3 Dibujar un círculo

5.4 Dibujar una elipse

5.5 Dibujar polígonos

5.6 Agregar texto a las imágenes

Capítulo 6 Conceptos básicos del funcionamiento de imágenes OpenCV

6.1 Acceder y modificar valores de píxeles

6.2 Acceder a las propiedades de la imagen

6.3 ROI del área de interés de la imagen

6.4 Dividir y fusionar canales de imágenes

Capítulo 7 Operaciones aritméticas de imágenes OpenCV

7.1 Adición de imágenes

7.2 Fusión de imágenes

7.3 Operaciones bit a bit sobre imágenes

Capítulo 8 Espacio de color OpenCV

8.1 Introducción al espacio de color

8.2 Espacio de color BGR

8.3 Espacio de color GRIS

8.4 Espacio de color HSV

Capítulo 9 Transformación de imágenes OpenCV

9.1 Escalado de imagen

9.2 Inversión de imágenes

9.3 Traducción de imágenes

9.4 Rotación de imagen

9.5 Transformación afín de imagen

9.6 Transformación de la perspectiva de la imagen

Capítulo 10 Procesamiento de umbral OpenCV

10.1 Instrucciones de procesamiento de umbrales

10.2 Procesamiento de umbral de segundo orden

10.3 Procesamiento de umbral de segundo orden inverso

10.4 Procesamiento de umbral de truncamiento

10.5 Procesamiento cero de umbral bajo

10.6 Manejo del cero con superumbral

10.7 Umbral adaptativo

10.8 Procesamiento de Otsu

Capítulo 11 Pirámide de imágenes OpenCV

11.1 Reducción de resolución de la pirámide pyrDown

11.2 muestreo ascendente de pirámide pyrUp

Capítulo 12 Procesamiento de suavizado de imágenes OpenCV

12.1 Filtrado medio

12.2 Filtrado de cajas

12.3 filtrado gaussiano

12.4 Filtrado mediano

12.5 Filtrado bilateral

Capítulo 13 Operaciones morfológicas de OpenCV

13.1 Corrosión

13.2 Expansión

13.3 Operación abierta

13.4 Operaciones cerradas

13.5 Operaciones de gradiente morfológico

Capítulo 14 Detección de bordes OpenCV

14.1 Conceptos básicos de detección de bordes de Canny

14.2 Función y uso de Canny

Capítulo 15 Contornos de imagen OpenCV

15.1 Encontrar y dibujar contornos

15.1.1 Buscar contornos

15.1.2 Dibujar contornos

15.2 Características del momento

15.2.1 Calcular el área del contorno

15.2.2 Calcular la longitud del contorno

15.3 Ajuste del contorno

15.3.1 Cuadro delimitador rectangular

15.3.2 Cuadro delimitador rectangular mínimo

15.3.3 Cuadro delimitador circular mínimo

15.3.4 Montaje del cuadro delimitador elíptico

15.4 Casco convexo

Capítulo 16 Procesamiento de histograma OpenCV

16.1 Dibujar histogramas

16.1.1 La función hist dibuja el histograma

16.1.2 La función calcHist dibuja un histograma

16.2 Ecualización del histograma

Capítulo 17 Transformada de Fourier OpenCV

17.1 Numpy implementa la transformada de Fourier

17.2 Numpy implementa la transformada inversa de Fourier

17.3 OpenCV implementa la transformada de Fourier

17.4 OpenCV implementa la transformada inversa de Fourier

17.5 Filtrado de paso alto

17.6 Filtrado de paso bajo

Capítulo 18 Coincidencia de plantillas OpenCV

18.1 Conceptos básicos de la coincidencia de plantillas

18.2 Coincidencia múltiple de plantillas

Capítulo 19 Transformación OpenCV Hough

19.1 Transformación lineal aproximada

19.2 Transformación probabilística de línea Hough

19.3 Transformada de toro de Hough

Capítulo 20 Reconocimiento de código QR OpenCV

Capítulo 21 Detección de color OpenCV

Capítulo 22 Detección de rostros y ojos OpenCV

Capítulo 23 Detección de peatones y automóviles OpenCV

Capítulo 24 Reconocimiento de dígitos escritos a mano OpenCV

Experimentos de aprendizaje profundo

Capítulo 1 Una breve historia del desarrollo del aprendizaje profundo.

1.1 Introducción a la inteligencia artificial

1.2 Red neuronal y aprendizaje profundo

1.3 Una breve historia del desarrollo de las redes neuronales.

1.4 Características del aprendizaje profundo

1.5 Aplicaciones de aprendizaje profundo

1.6 Marco de aprendizaje profundo

Capítulo 2 Configuración del entorno experimental

2.1 Descarga e instalación de Anaconda

2.2 Anaconda configura el entorno tf2

2.3 Instalación de Tensorflow

2.4 Instalación del portátil Jupyter

2.5 Introducción al entorno RK3399

Capítulo 3 Conceptos básicos de TensorFlow

3.1 Experimento de creación de tensores

3.2 Experimento de operación tensorial

3.3 Experimento de transformación de dimensión tensorial

Capítulo 4 Regresión lineal

4.1 Experimento de regresión lineal univariante

4.2 Experimento de regresión lineal múltiple

4.3 Experimento de predicción del precio de la vivienda en Boston

Capítulo 5 Regresión logística

5.1 Experimento de regresión logística univariante

5.2 Experimento de regresión múltiple

5.3 Experimento práctico de clasificación del iris.

Capítulo 6 Red neuronal artificial

6.1 Experimento de red neuronal de una sola capa

6.2 Experimento de red neuronal multicapa

6.3 Experimento de carga o guardado del modelo

Capítulo 7 Red neuronal convolucional

7.1 Experimento de operación de convolución

7.2 Experimento de red neuronal convolucional

7.3 Experimento de preprocesamiento de datos

Capítulo 8 Aprendizaje por transferencia de redes neuronales

8.1 Introducción a las redes neuronales clásicas

8.2 Experimento de clasificación de perros y gatos de aprendizaje por transferencia

Capítulo 9 Red neuronal recurrente

9.1 Introducción a las redes neuronales recurrentes

9.2 Experimento de clasificación de emociones

9.3 Experimento de generación de texto

Capítulo 10 Experimento integral sobre inteligencia artificial

10.1 Experimento de reconocimiento facial

10.2 Experimento de detección de máscara

10.3 Experimento de reconocimiento de frutas

Experimento de parte del conjunto de micrófonos

1. Experimento de localización de fuentes de sonido.

2. Experimento de visualización de audio.

3. Experimento de reconocimiento de voz

Experimento de parte del brazo robótico

Experimento básico

1.Controlar las luces RGB

2. Controla el timbre

3. Controlar un solo servo

4. Lea la posición actual del servo.

5. Controla 6 servos a la vez

6. El brazo robótico se mueve hacia arriba, abajo, izquierda y derecha.

7. B*le con brazo robótico

8. Acción de memoria del brazo robótico

9. Bloques de sujeción del brazo robótico

10.Portero de la naturaleza

11. Arhat apilado

Experimento integral de inteligencia artificial

1. Calibración de color

2. Bloques de construcción que agarran el reconocimiento de color

3. Clasificación y apilamiento de colores

4. Clasificación de basura

5. Seguimiento de objetivos


DAIYU微信扫码 关注我们

  • 24小时咨询热线+86 18916464525

  • 移动电话18916464525

 地址:上海市松江科技园区崇南路6号A区414号厂房 备案号: 网站地图