Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Um projeto do Actions empacota todas as ações em um único contêiner. Você
publicar este projeto no Actions on Google para que o Google Assistente saiba como descobrir
e invoque suas experiências de conversa.
Figura 1. Estrutura do projeto do Actions
Você usa os seguintes componentes de baixo nível para criar seu projeto do Actions:
Configurações e recursos definem os metadados do projeto.
e recursos como ícones de projeto. O Google usa essas informações para publicar
suas ações ao diretório do Assistente, para que os usuários possam descobrir e invocar
para resolvê-los com rapidez.
Intents representam uma tarefa a ser realizada, como
entrada do usuário ou um evento do sistema que precisa de processamento. O tipo mais comum de
que você usará são as intents do usuário. Essas intents permitem que você declare o treinamento
frases que são naturalmente expandidas pelo processamento de linguagem natural (PLN)
mecanismo para incluir muitas outras frases parecidas. O PLN usa a agregação
essas frases para treinar um modelo de linguagem que o Google Assistente usa para corresponder
entrada. Durante uma conversa, se alguma entrada do usuário corresponder ao idioma da intent
o ambiente de execução do Google Assistente envia a intent à ação para que ela possa
processá-los e responder ao usuário.
Com os tipos, você pode extrair dados estruturados da entrada do usuário. De
anotando frases de treinamento com tipos, o PLN extrai dados relevantes e
você não precisa analisar entradas abertas.
Scenes processam intents e são os principais executores lógicos de
suas ações. Eles podem preencher o slot, avaliar a lógica condicional,
solicitações ao usuário e até mesmo chamar serviços da Web externos para realizar
lógica de negócios. Em combinação com intents, as cenas oferecem uma maneira poderosa de
detectar entradas específicas do usuário ou eventos do sistema e realizar as ações
lógica.
Os comandos definem as respostas estáticas ou dinâmicas que você usa para
responder aos usuários.
Os Webhooks permitem delegar trabalho extra a serviços da Web.
(fulfillment), como validar dados ou gerar comandos. Suas ações
se comunicar com o fulfillment usando um protocolo de webhook baseado em JSON.
Com a Tela interativa, você cria imagens
e experiências imersivas com aplicativos da web que utilizam HTML, CSS e JavaScript.
Criar um projeto
Você precisa criar um projeto no Console do Actions antes de desenvolver para
Google Assistente Para criar um projeto:
Digite um nome para o projeto e clique em Criar projeto.
Na tela Que tipo de ação você quer criar?, selecione
a categoria que melhor representa seu projeto e clique em Próxima.
Na tela Como você quer criar, selecione uma forma de criar
e clique em Começar a criar. Por exemplo, é possível começar com uma
ou com uma amostra.
.
Definir as informações do projeto
As configurações e os recursos do seu projeto definem as informações dele, como
suporte a recursos e plataformas, localidades aceitas, nome de exibição, descrição,
logotipos e muito mais. A tabela a seguir descreve as principais configurações e recursos
que você fornecer. Esse recurso é usado pelo Actions on Google
para implantar e publicar seu projeto no Assistente
diretório atual.
Nome
Descrição
Informações do diretório
Fornece informações para que o Actions on Google possa publicar seus
projeto para o diretório do Assistente. Inclui metadados e descrições
sobre seu projeto e recursos de imagem para logotipos e imagens de banner.
Segmentação por local
Configura as localidades em que suas ações estão disponíveis.
Recursos da plataforma
Configura as plataformas em que suas ações estão disponíveis.
Detalhes da empresa
Especifica os dados de contato da sua empresa.
Verificação de marca
Conecte um site ou app Android de sua propriedade para ter mais benefícios
como nomes de invocação reservados e vinculação de sites nas suas ações.
Versão
Configura diferentes versões de teste e produção para sua ação
para testes e produção.
Links do Google Assistente
Permita que os usuários invoquem suas ações nas propriedades da Web.
Para definir as informações do projeto:
Testar projetos no simulador
O Console do Actions oferece um simulador para visualização das suas ações. A
permite que você veja informações de depuração, defina recursos do dispositivo, simule
localidade e muito mais.
Figura 3. As principais áreas do simulador: (1) entrada do usuário,
(2) visualização do dispositivo, (3) opções e configurações e (4) registro de conversas.
[null,null,["Última atualização 2025-07-26 UTC."],[[["\u003cp\u003eAn Actions project enables the creation of conversational experiences for Google Assistant by packaging all actions into a single container for publishing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding an Actions project involves utilizing components such as intents, types, scenes, prompts, webhooks and more for defining user interactions and logic.\u003c/p\u003e\n"],["\u003cp\u003eDefining project information in the Actions console, including directory information, locales and surfaces, is crucial for publishing and deploying to the Assistant directory.\u003c/p\u003e\n"],["\u003cp\u003eThe Actions console simulator provides a comprehensive environment for testing projects with features such as debugging, device settings, and locale simulation.\u003c/p\u003e\n"]]],[],null,["# Build projects\n\nActions Builder Actions SDK \n\nAn Actions project packages all of your Actions into a single container. You\npublish this project to Actions on Google so Google Assistant knows how to discover\nand invoke your conversational experiences.\n**Figure 1**. Actions project structure\n\nYou use the following low-level components to build your Actions project:\n\n- [**Settings and resources**](#define_project_information) define project metadata\n and resources like project icons. Google uses this information to publish\n your Actions to the Assistant directory, so that users can discover and invoke\n them.\n\n- [**Intents**](../intents) represent a task to be carried out, such as some\n user input or a system event that needs processing. The most common type of\n intent you'll use are user intents. These intents let you declare training\n phrases that are naturally expanded by the NLU (natural language understanding)\n engine to include many more, similar phrases. The NLU uses the aggregation of\n these phrases to train a language model that the Assistant uses to match user\n input. During a conversation, if some user input matches the intent's language\n model, the Assistant runtime sends the intent to your Action, so that it can\n process it and respond to the user.\n\n- [**Types**](../types) let you extract structured data from user input. By\n annotating training phrases with types, the NLU can extract relevant, structured\n data for you, so you don't have to parse open-ended input.\n\n- [**Scenes**](../scenes) process intents and are the main logic executors for\n your Actions. They can do slot-filling, evaluate conditional logic, return\n prompts to the user, and even call on external web services to carry out\n business logic. In combination with intents, scenes give you a powerful way to\n detect specific user input or system events and to carry out corresponding\n logic.\n\n- [**Prompts**](../prompts) define static or dynamic responses that you use to\n respond back to users.\n\n- [**Webhooks**](../webhooks) let you delegate extra work to web services\n (fulfillment), such as validating data or generating prompts. Your Actions\n communicate with your fulfillment through a JSON-based, webhook protocol.\n\n- [**Interactive Canvas**](/assistant/interactivecanvas) lets you create rich\n and immersive experiences with web apps that utilize HTML, CSS, and JavaScript.\n\nCreate a project\n----------------\n\nYou must create a project in the Actions console before you can develop for\nGoogle Assistant. To create a project:\n\n1. Go to the [Actions console](//console.actions.google.com/).\n2. Click **New project**.\n3. Enter a name for your project and click **Create Project** .\n4. In the **What kind of Action do you want to build?** screen, select a category that best represents your project and click **Next**.\n5. In the **How do you want to build it** screen, select a way to build and click **Start building**. For example, you can start with an empty project or with a sample.\n\n| **Key Point:** If you are building for Interactive Canvas, follow these additional steps:\n|\n| 1. If you did not select the **Game** card on the **What type of Action\n| do you want to build?** screen, click **Deploy** in the top navigation. Under **Additional Information** , select the **Games \\& fun** category. Click **Save**.\n| 2. Click **Develop** in the top navigation of the Actions console.\n| 3. Click **Interactive Canvas** in the left navigation.\n| 4. Under **Does your Action use Interactive Canvas?** , select **Yes**.\n| 5. **Optional** : Enter your web app URL into the **Set your default web app URL** field. This action adds a default `Canvas` response with the URL field to your Main invocation.\n| 6. Click **Save**.\n\n\u003cbr /\u003e\n\nDefine project information\n--------------------------\n\n| **Note:** See the [Directory information](/assistant/console/directory-information) documentation for more details on how to manage project information.\n\nYour project's settings and resources define information about your project like\nfeature and surface support, supported locales, display name, description,\nlogos, and more. The following table describes the main settings and resources\nyou provide. Actions on Google uses this\ninformation to deploy and publish your project to the [Assistant\ndirectory](//assistant.google.com/explore).\n\n| Name | Description |\n|-----------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Directory information | Provides information so that Actions on Google can publish your project to the Assistant directory. Includes metadata and desecriptions about your project and image resources for logos and banner images. |\n| Location targeting | Configures the locales that your Actions are available in. |\n| Surface capabilities | Configures the surfaces that your Actions are available on. |\n| Company details | Specifies contact information for your company. |\n| Brand verification | Connect a website or Android app that you own to gain extra benefits such as reserved invocation names and website linking within your Actions. |\n| Release | Configures different testing and production releases for your Action for testing and production. |\n| Assistant links | Let users invoke your Actions from your web properties. |\n\nTo define project information:\n\nTest projects in the simulator\n------------------------------\n\n| **Note:** See the [Actions simulator](/assistant/console/simulator) documentation for complete information about testing your projects.\n\nThe Actions console provides a simulator to preview your Actions in. The\nsimulator lets you see debug information, set device capabilities, simulate\nlocale, and more.\n**Figure 3.** The main areas of the simulator: (1) user input, (2) device view, (3) options and settings, and (4) conversation log.\n\nTo test a project:"]]