تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
يجمع مشروع "الإجراءات" كل "الإجراءات" في حاوية واحدة. إِنْتَ
نشر هذا المشروع في "المهام مع مساعد Google" حتى يعرف "مساعد Google" طريقة اكتشاف
واستدعاء تجاربك الحوارية.
الشكل 1. بنية مشروع الإجراءات
يمكنك استخدام المكونات المنخفضة المستوى التالية لإنشاء مشروع "الإجراءات" الخاص بك:
الإعدادات والموارد تحدد البيانات الوصفية للمشروع
والموارد مثل أيقونات المشروع. تستخدم Google هذه المعلومات لنشر
الإجراءات إلى دليل مساعد Google، حتى يتمكن المستخدمون من اكتشاف واستدعاء
معهم.
تمثّل الأهداف مَهمّة يجب تنفيذها، مثل بعض
البيانات التي أدخلها المستخدم أو حدث النظام الذي يحتاج إلى المعالجة إن النوع الأكثر شيوعًا من
الغرض الذي ستستخدمه هو نوايا المستخدم. تتيح لك هذه الأهداف الإعلان عن التدريب.
العبارات التي يتم توسيعها بشكل طبيعي بواسطة NLU (فهم اللغة الطبيعية)
لتضمين العديد من العبارات المتشابهة. تستخدم NLU تجميع
هذه العبارات لتدريب نموذج لغوي يستخدمه "مساعد Google" لمطابقة بيانات المستخدم
إدخال. أثناء المحادثة، إذا تطابق بعض إدخالات المستخدم مع لغة الغرض
، يُرسِل وقت تشغيل "مساعد Google" الهدف إلى المهمّة
ومعالجتها والاستجابة للمستخدم.
تتيح لك الأنواع استخراج البيانات المنظَّمة من البيانات التي يُدخلها المستخدمون. من
ونضع تعليقات توضيحية على العبارات التدريبية بأنواعها، يمكن لـ NLU استخراج بيانات منظَّمة
البيانات نيابة عنك، لذا لن تحتاج إلى تحليل الإدخالات المفتوحة.
المَشاهد تعالج الأهداف وهي المنطق الرئيسي
إجراءاتك. حيث يمكنه ملء الخانات وتقييم المنطق الشرطي وإرجاع
المستخدمين، وكذلك الاتصال بخدمات ويب خارجية لتنفيذ
ومنطق الأعمال. إلى جانب الأهداف، تمنحك المشاهد وسيلة فعّالة
اكتشاف مدخلات المستخدم أو أحداث النظام وتنفيذ
المنطق.
تحدد الطلبات الردود الثابتة أو الديناميكية التي تستخدمها
والاستجابة للمستخدمين.
تتيح لك الردّ التلقائي على الويب تفويض خدمات الويب بالعمل الإضافي.
(التنفيذ)، مثل التحقق من صحة البيانات أو إنشاء الطلبات. الإجراءات
التواصل مع التنفيذ من خلال بروتوكول ردّ تلقائي على الويب مستند إلى JSON.
تتيح لك لوحة الرسم التفاعلية إنشاء محتوى غني
وتجارب غامرة مع تطبيقات الويب التي تستخدم HTML وCSS وJavaScript.
إنشاء مشروع
يجب إنشاء مشروع في وحدة تحكّم المهام قبل أن تتمكّن من تطويره.
مساعد Google لإنشاء مشروع، اتّبِع الخطوات التالية:
في شاشة ما نوع الإجراء الذي تريد إنشاءه؟، اختَر
الفئة التي تمثل مشروعك على أفضل وجه، ثم انقر على التالي.
في شاشة كيفية إنشاء التطبيق، اختَر طريقة لإنشاء
وانقر على بدء البناء. على سبيل المثال، يمكنك البدء بحقل
مشروعك أو باستخدام عينة.
تحديد معلومات المشروع
تحدد إعدادات وموارد مشروعك معلومات حول مشروعك مثل
دعم الميزات والمساحات، واللغات المتاحة، والاسم المعروض، والوصف
والشعارات وغيرها. يوضّح الجدول التالي الإعدادات والموارد الرئيسية.
التي تقدمها. يستخدم "المهام مع مساعد Google" هذه الميزة
المعلومات لنشر مشروعك ونشره في "مساعد Google"
الدليل.
الاسم
الوصف
معلومات الدليل
توفر معلومات لتمكين "المهام مع مساعد Google" من نشر
مشروع إلى دليل "مساعد Google". يتضمّن ذلك البيانات الوصفية والأوصاف.
حول مشروعك وموارد الصور المتعلقة بالشعارات وصور البانر.
الاستهداف حسب الموقع الجغرافي
تتيح هذه السياسة ضبط اللغات التي تتوفّر فيها "إجراءاتك".
إمكانات سطح المكتب
تتيح هذه السياسة إعداد مساحات العرض التي تتوفّر عليها إجراءاتك.
تفاصيل الشركة
يحدد معلومات الاتصال بشركتك.
طلب تأكيد معلومات العلامة التجارية
ربط موقع إلكتروني أو تطبيق Android تملكه للاستفادة من مزايا إضافية
مثل أسماء الاستدعاء المحجوزة وربط مواقع الويب ضمن "الإجراءات".
الإصدار
تعمل هذه السياسة على ضبط إصدارات الاختبار والإنتاج المختلفة للإجراء الخاص بك.
للاختبار والإنتاج.
روابط "مساعد Google"
السماح للمستخدمين باستدعاء الإجراءات من مواقعك على الويب.
لتحديد معلومات المشروع:
اختبار المشاريع في المحاكي
توفّر وحدة تحكّم "المهام" محاكيًا لمعاينة المهام في "المهام". تشير رسالة الأشكال البيانية
يتيح لك المحاكي الاطّلاع على معلومات تصحيح الأخطاء وتحديد إمكانيات الجهاز والمحاكاة.
واللغة وغير ذلك.
الشكل 3. المناطق الرئيسية في المحاكي: (1) إدخالات المستخدم،
(2) عرض الجهاز، (3) الخيارات والإعدادات، (4) سجلّ المحادثات.
تاريخ التعديل الأخير: 2025-07-26 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-26 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eAn Actions project enables the creation of conversational experiences for Google Assistant by packaging all actions into a single container for publishing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding an Actions project involves utilizing components such as intents, types, scenes, prompts, webhooks and more for defining user interactions and logic.\u003c/p\u003e\n"],["\u003cp\u003eDefining project information in the Actions console, including directory information, locales and surfaces, is crucial for publishing and deploying to the Assistant directory.\u003c/p\u003e\n"],["\u003cp\u003eThe Actions console simulator provides a comprehensive environment for testing projects with features such as debugging, device settings, and locale simulation.\u003c/p\u003e\n"]]],[],null,["# Build projects\n\nActions Builder Actions SDK \n\nAn Actions project packages all of your Actions into a single container. You\npublish this project to Actions on Google so Google Assistant knows how to discover\nand invoke your conversational experiences.\n**Figure 1**. Actions project structure\n\nYou use the following low-level components to build your Actions project:\n\n- [**Settings and resources**](#define_project_information) define project metadata\n and resources like project icons. Google uses this information to publish\n your Actions to the Assistant directory, so that users can discover and invoke\n them.\n\n- [**Intents**](../intents) represent a task to be carried out, such as some\n user input or a system event that needs processing. The most common type of\n intent you'll use are user intents. These intents let you declare training\n phrases that are naturally expanded by the NLU (natural language understanding)\n engine to include many more, similar phrases. The NLU uses the aggregation of\n these phrases to train a language model that the Assistant uses to match user\n input. During a conversation, if some user input matches the intent's language\n model, the Assistant runtime sends the intent to your Action, so that it can\n process it and respond to the user.\n\n- [**Types**](../types) let you extract structured data from user input. By\n annotating training phrases with types, the NLU can extract relevant, structured\n data for you, so you don't have to parse open-ended input.\n\n- [**Scenes**](../scenes) process intents and are the main logic executors for\n your Actions. They can do slot-filling, evaluate conditional logic, return\n prompts to the user, and even call on external web services to carry out\n business logic. In combination with intents, scenes give you a powerful way to\n detect specific user input or system events and to carry out corresponding\n logic.\n\n- [**Prompts**](../prompts) define static or dynamic responses that you use to\n respond back to users.\n\n- [**Webhooks**](../webhooks) let you delegate extra work to web services\n (fulfillment), such as validating data or generating prompts. Your Actions\n communicate with your fulfillment through a JSON-based, webhook protocol.\n\n- [**Interactive Canvas**](/assistant/interactivecanvas) lets you create rich\n and immersive experiences with web apps that utilize HTML, CSS, and JavaScript.\n\nCreate a project\n----------------\n\nYou must create a project in the Actions console before you can develop for\nGoogle Assistant. To create a project:\n\n1. Go to the [Actions console](//console.actions.google.com/).\n2. Click **New project**.\n3. Enter a name for your project and click **Create Project** .\n4. In the **What kind of Action do you want to build?** screen, select a category that best represents your project and click **Next**.\n5. In the **How do you want to build it** screen, select a way to build and click **Start building**. For example, you can start with an empty project or with a sample.\n\n| **Key Point:** If you are building for Interactive Canvas, follow these additional steps:\n|\n| 1. If you did not select the **Game** card on the **What type of Action\n| do you want to build?** screen, click **Deploy** in the top navigation. Under **Additional Information** , select the **Games \\& fun** category. Click **Save**.\n| 2. Click **Develop** in the top navigation of the Actions console.\n| 3. Click **Interactive Canvas** in the left navigation.\n| 4. Under **Does your Action use Interactive Canvas?** , select **Yes**.\n| 5. **Optional** : Enter your web app URL into the **Set your default web app URL** field. This action adds a default `Canvas` response with the URL field to your Main invocation.\n| 6. Click **Save**.\n\n\u003cbr /\u003e\n\nDefine project information\n--------------------------\n\n| **Note:** See the [Directory information](/assistant/console/directory-information) documentation for more details on how to manage project information.\n\nYour project's settings and resources define information about your project like\nfeature and surface support, supported locales, display name, description,\nlogos, and more. The following table describes the main settings and resources\nyou provide. Actions on Google uses this\ninformation to deploy and publish your project to the [Assistant\ndirectory](//assistant.google.com/explore).\n\n| Name | Description |\n|-----------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Directory information | Provides information so that Actions on Google can publish your project to the Assistant directory. Includes metadata and desecriptions about your project and image resources for logos and banner images. |\n| Location targeting | Configures the locales that your Actions are available in. |\n| Surface capabilities | Configures the surfaces that your Actions are available on. |\n| Company details | Specifies contact information for your company. |\n| Brand verification | Connect a website or Android app that you own to gain extra benefits such as reserved invocation names and website linking within your Actions. |\n| Release | Configures different testing and production releases for your Action for testing and production. |\n| Assistant links | Let users invoke your Actions from your web properties. |\n\nTo define project information:\n\nTest projects in the simulator\n------------------------------\n\n| **Note:** See the [Actions simulator](/assistant/console/simulator) documentation for complete information about testing your projects.\n\nThe Actions console provides a simulator to preview your Actions in. The\nsimulator lets you see debug information, set device capabilities, simulate\nlocale, and more.\n**Figure 3.** The main areas of the simulator: (1) user input, (2) device view, (3) options and settings, and (4) conversation log.\n\nTo test a project:"]]