diff --git a/config/locales/client.ar.yml b/config/locales/client.ar.yml index deaa932bf..ab6b8eaf4 100644 --- a/config/locales/client.ar.yml +++ b/config/locales/client.ar.yml @@ -87,10 +87,8 @@ ar: description: "رتِّب أولوية المحتوى من هذه المجموعة في التقرير" temperature: label: "درجة الحرارة" - description: "درجة الحرارة التي سيتم استخدامها في نموذج اللغة الكبير (LLM). تزيد العشوائية بزيادة القيمة (اضبط القيمة على 0 لاستخدام النموذج الافتراضي)" top_p: label: "Top P" - description: "top-p للاستخدام في نموذج اللغة الكبير (LLM)، تزيد العشوائية بزيادة القيمة (اضبط القيمة على 0 لاستخدام النموذج الافتراضي)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ ar: model: label: "النموذج" description: "نموذج اللغة المُستخدَم في الفرز" + temperature: + label: "درجة الحرارة" discourse_ai: title: "الذكاء الاصطناعي" modals: @@ -195,7 +195,7 @@ ar: no_users: "لم يتم العثور على بيانات استخدام المستخدم" no_models: "لم يتم العثور على بيانات استخدام نموذجية" no_features: "لم يتم العثور على بيانات استخدام الميزات" - subheader_description: "الرموز هي الوحدات الأساسية التي تستخدمها نماذج اللغة الكبيرة لفهم النصوص وتوليدها، وقد تؤثر بيانات الاستخدام على التكاليف." + subheader_description: "الرموز هي الوحدات الأساسية التي تستخدمها نماذج اللغة الكبيرة لفهم النصوص وتوليدها، وقد تؤثر بيانات الاستخدام على التكاليف" stat_tooltips: total_requests: "جميع الطلبات المُقدَّمة إلى نماذج اللغة الكبيرة من خلال Discourse" total_tokens: "جميع الرموز المُستخدَمة عند إدخال رسالة مطالبة في نموذج لغة كبير" @@ -390,7 +390,7 @@ ar: open_ai-gpt-4o-mini: "نموذج صغير سريع وبأسعارٍ معقولة للمهام الخفيفة" open_ai-o1-mini: "نموذج استدلال فعَّال من حيث التكلفة" samba_nova-Meta-Llama-3-1-8B-Instruct: "نموذج متعدد اللغات خفيف وفعَّال" - samba_nova-Meta-Llama-3-1-70B-Instruct": "نموذج قوي متعدد الأغراض" + samba_nova-Meta-Llama-3-3-70B-Instruct": "نموذج قوي متعدد الأغراض" mistral-mistral-large-latest: "النموذج الأقوى لدى Mistral" mistral-pixtral-large-latest: "النموذج القادر على الرؤية الأقوى لدى Mistral" preseeded_model_description: "نموذج مفتوح المصدر تم تكوينه مسبقًا باستخدام %{model}" @@ -400,7 +400,7 @@ ar: preconfigured: title_no_llms: "حدِّد قالبًا للبدء" title: "لم يتم تكوين قوالب نماذج اللغة الكبيرة (LLM)" - description: "نماذج اللغة الكبيرة (LLM) عبارة عن أدوات ذكاء اصطناعي تم تحسينها لتنفيذ مهام مثل تلخيص المحتوى وإنشاء التقارير وأتمتة تفاعلات العملاء وتسهيل إدارة المنتديات وتقديم الرؤى." + description: "نماذج اللغة الكبيرة (LLM) عبارة عن أدوات ذكاء اصطناعي تم تحسينها لتنفيذ مهام مثل تلخيص المحتوى وإنشاء التقارير وأتمتة تفاعلات العملاء وتسهيل إدارة المنتديات وتقديم الرؤى" fake: "التكوين اليدوي" button: "إعداد" next: diff --git a/config/locales/client.de.yml b/config/locales/client.de.yml index 599659743..001b46bc9 100644 --- a/config/locales/client.de.yml +++ b/config/locales/client.de.yml @@ -89,10 +89,10 @@ de: description: "Inhalte aus dieser Gruppe im Bericht hervorheben" temperature: label: "Temperatur" - description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)" + description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" top_p: label: "Top P" - description: "Top P für das LLM. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)" + description: "Top P für die LLM, erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" llm_triage: fields: system_prompt: @@ -134,6 +134,9 @@ de: model: label: "Modell" description: "Für die Triage verwendetes Sprachmodell" + temperature: + label: "Temperatur" + description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" discourse_ai: title: "KI" modals: @@ -197,7 +200,7 @@ de: no_users: "Keine Benutzernutzungsdaten gefunden" no_models: "Keine Modellnutzungsdaten gefunden" no_features: "Keine Funktionsnutzungsdaten gefunden" - subheader_description: "Token sind die Basiseinheiten, die LLMs zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken." + subheader_description: "Token sind die Basiseinheiten, die LLMs zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken" stat_tooltips: total_requests: "Alle Anfragen an LLMs über Discourse" total_tokens: "Alle Token, die bei der Abfrage einer LLM verwendet werden" @@ -397,7 +400,7 @@ de: open_ai-o1: "Das leistungsfähigste Argumentationsmodell von Open AI" open_ai-o3-mini: "Erweitertes kosteneffizientes Argumentationsmodell" samba_nova-Meta-Llama-3-1-8B-Instruct: "Effizientes leichtgewichtiges mehrsprachiges Modell" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Leistungsstarkes Mehrzweckmodell" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Leistungsstarkes Mehrzweckmodell" mistral-mistral-large-latest: "Das leistungsstärkste Modell von Mistral" mistral-pixtral-large-latest: "Das leistungsstärkste Modell von Mistral mit Sichtfunktion" preseeded_model_description: "Vorkonfiguriertes Open-Source-Modell unter Verwendung von %{model}" @@ -407,7 +410,7 @@ de: preconfigured: title_no_llms: "Wähle eine Vorlage aus, um loszulegen" title: "Unkonfigurierte LLM-Vorlagen" - description: "LLMs (Large Language Models) sind KI-Tools, die für Aufgaben wie die Zusammenfassung von Inhalten, die Erstellung von Berichten, die Automatisierung von Kundeninteraktionen und die Erleichterung der Forenmoderation und -einsicht optimiert sind." + description: "LLMs (Large Language Models) sind KI-Tools, die für Aufgaben wie die Zusammenfassung von Inhalten, die Erstellung von Berichten, die Automatisierung von Kundeninteraktionen und die Erleichterung der Forenmoderation und -einsicht optimiert sind" fake: "Manuelle Konfiguration" button: "Einrichten" next: @@ -629,6 +632,9 @@ de: sentiments: dashboard: title: "Stimmung" + sidebar: + overview: "Stimmungsübersicht" + analysis: "Stimmungsanalyse" sentiment_analysis: filter_types: all: "Gesamt" diff --git a/config/locales/client.es.yml b/config/locales/client.es.yml index 0dae9e233..537dff5a4 100644 --- a/config/locales/client.es.yml +++ b/config/locales/client.es.yml @@ -87,10 +87,8 @@ es: description: "Priorizar el contenido de este grupo en el informe" temperature: label: "Temperatura" - description: "Temperatura a utilizar para el LLM. Aumentar para aumentar la aleatoriedad (0 para utilizar el modelo por defecto)" top_p: label: "Top P" - description: "Top P a utilizar para el LLM, aumentar para aumentar la aleatoriedad (0 para utilizar el modelo por defecto)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ es: model: label: "Modelo" description: "Modelo lingüístico utilizado para el triaje" + temperature: + label: "Temperatura" discourse_ai: title: "IA" modals: @@ -195,7 +195,7 @@ es: no_users: "No se han encontrado datos de uso del usuario" no_models: "No se han encontrado datos de uso del modelo" no_features: "No se han encontrado datos de uso de características" - subheader_description: "Los tokens son las unidades básicas que utilizan los LLM para comprender y generar texto, los datos de uso pueden afectar a los costes." + subheader_description: "Los tokens son las unidades básicas que utilizan los LLM para comprender y generar texto, los datos de uso pueden afectar a los costes" stat_tooltips: total_requests: "Todas las solicitudes realizadas a los LLM a través de Discourse" total_tokens: "Todos los tokens utilizados al solicitar un LLM" @@ -382,7 +382,7 @@ es: open_ai-gpt-4o-mini: "Modelo pequeño, asequible y rápido para tareas ligeras" open_ai-o1-mini: "Modelo de razonamiento rentable" samba_nova-Meta-Llama-3-1-8B-Instruct: "Modelo multilingüe, ligero y eficaz" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Potente modelo polivalente" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Potente modelo polivalente" mistral-mistral-large-latest: "El modelo más potente de Mistral" mistral-pixtral-large-latest: "El modelo más potente de Mistral con capacidad de visión" preseeded_model_description: "Modelo de código abierto preconfigurado que utiliza %{model}" @@ -392,7 +392,7 @@ es: preconfigured: title_no_llms: "Selecciona una plantilla para empezar" title: "Plantillas LLM no configuradas" - description: "Los LLM (Large Language Models) son herramientas de IA optimizadas para tareas como resumir contenidos, generar informes, automatizar las interacciones con los clientes y facilitar la moderación y los comentarios en los foros." + description: "Los LLM (Large Language Models) son herramientas de IA optimizadas para tareas como resumir contenidos, generar informes, automatizar las interacciones con los clientes y facilitar la moderación y los comentarios en los foros" fake: "Configuración manual" button: "Configurar" next: diff --git a/config/locales/client.fi.yml b/config/locales/client.fi.yml index 6d17b6ae7..8620e2da1 100644 --- a/config/locales/client.fi.yml +++ b/config/locales/client.fi.yml @@ -87,10 +87,8 @@ fi: description: "Priorisoi tämän ryhmän sisältö raportissa" temperature: label: "Lämpötila" - description: "LLM:lle käytettävä lämpötila. Lisää satunnaisuutta kasvattamalla arvoa (käytä mallin oletusta käyttämällä arvoa 0)" top_p: label: "Top-p" - description: "LLM:lle käytettävä top-p, lisää satunnaisuutta kasvattamalla arvoa (käytä mallin oletusta käyttämällä arvoa 0)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ fi: model: label: "Malli" description: "Luokitteluun käytettävä kielimalli" + temperature: + label: "Lämpötila" discourse_ai: title: "Tekoäly" modals: @@ -195,7 +195,7 @@ fi: no_users: "Käyttäjien käyttötietoja ei löytynyt" no_models: "Mallin käyttötietoja ei löytynyt" no_features: "Ominaisuuden käyttötietoja ei löytynyt" - subheader_description: "Saneet ovat perusyksiköitä, joita suuret kielimallit käyttävät tekstin ymmärtämiseen ja luomiseen. Käyttötiedot voivat vaikuttaa kustannuksiin." + subheader_description: "Saneet ovat perusyksiköitä, joita suuret kielimallit käyttävät tekstin ymmärtämiseen ja luomiseen. Käyttötiedot voivat vaikuttaa kustannuksiin" stat_tooltips: total_requests: "Kaikki suurille kielimalleille Discoursen kautta tehdyt pyynnöt" total_tokens: "Kaikki käytetyt saneet kehotteissa suurille kielimalleille" @@ -382,7 +382,7 @@ fi: open_ai-gpt-4o-mini: "Edullinen ja nopea pieni malli kevyisiin tehtäviin" open_ai-o1-mini: "Kustannustehokas päättelymalli" samba_nova-Meta-Llama-3-1-8B-Instruct: "Tehokas kevyt monikielinen malli" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Tehokas monikäyttöinen malli" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Tehokas monikäyttöinen malli" mistral-mistral-large-latest: "Mistralin tehokkain malli" mistral-pixtral-large-latest: "Mistralin tehokkain näkökykyinen malli" preseeded_model_description: "Ennalta määritetty avoimen lähdekoodin malli, joka käyttää mallia %{model}" @@ -392,7 +392,7 @@ fi: preconfigured: title_no_llms: "Aloita valitsemalla malli" title: "Määrittämättömät LLM-mallit" - description: "LLM:t (suuret kielimallit) ovat tekoälytyökaluja, jotka on optimoitu tehtäviin, kuten sisällön yhteenvedon laatimiseen sisällöstä, raporttien luomiseen, asiakasvuorovaikutusten automatisointiin sekä foorumin valvonnan ja tietokatsausten helpottamiseen." + description: "LLM:t (suuret kielimallit) ovat tekoälytyökaluja, jotka on optimoitu tehtäviin, kuten sisällön yhteenvedon laatimiseen sisällöstä, raporttien luomiseen, asiakasvuorovaikutusten automatisointiin sekä foorumin valvonnan ja tietokatsausten helpottamiseen" fake: "Manuaalinen määritys" button: "Määritä" next: diff --git a/config/locales/client.fr.yml b/config/locales/client.fr.yml index fe61976f1..6d1d68732 100644 --- a/config/locales/client.fr.yml +++ b/config/locales/client.fr.yml @@ -87,10 +87,8 @@ fr: description: "Priorisez le contenu de ce groupe dans le rapport" temperature: label: "Température" - description: "Température à utiliser pour le LLM. Augmentez la valeur pour augmenter le caractère aléatoire (0 pour utiliser la valeur par défaut du modèle)" top_p: label: "Top P" - description: "Top P à utiliser pour le LLM, augmentez pour augmenter le caractère aléatoire (0 pour utiliser la valeur par défaut du modèle)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ fr: model: label: "Modèle" description: "Modèle linguistique utilisé pour le tri" + temperature: + label: "Température" discourse_ai: title: "IA" modals: @@ -195,7 +195,7 @@ fr: no_users: "Aucune donnée d'utilisation de l'utilisateur n'a été trouvée" no_models: "Aucune donnée d'utilisation du modèle n'a été trouvée" no_features: "Aucune donnée d'utilisation de la fonctionnalité n'a été trouvée" - subheader_description: "Les jetons sont les unités de base que les LLM utilisent pour comprendre et générer du texte. Les données d'utilisation peuvent affecter les coûts." + subheader_description: "Les jetons sont les unités de base que les LLM utilisent pour comprendre et générer du texte. Les données d'utilisation peuvent affecter les coûts" stat_tooltips: total_requests: "Toutes les requêtes adressées aux LLM via Discourse" total_tokens: "Tous les jetons utilisés lors de la consultation d'un LLM" @@ -382,7 +382,7 @@ fr: open_ai-gpt-4o-mini: "Petit modèle abordable et rapide pour les tâches légères" open_ai-o1-mini: "Modèle de raisonnement rentable" samba_nova-Meta-Llama-3-1-8B-Instruct: "Modèle multilingue léger et efficace" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Modèle polyvalent et puissant" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Modèle polyvalent et puissant" mistral-mistral-large-latest: "Le modèle le plus puissant de Mistral" mistral-pixtral-large-latest: "Le modèle de Mistral le plus performant en matière de vision" preseeded_model_description: "Modèle open source préconfiguré utilisant %{model}" @@ -392,7 +392,7 @@ fr: preconfigured: title_no_llms: "Sélectionnez un modèle pour commencer" title: "Modèles LLM non configurés" - description: "Les LLM (Large Language Models) sont des outils d'IA optimisés pour des tâches telles que la synthèse de contenu, la génération de rapports, l'automatisation des interactions avec les clients et la facilitation de la modération et des informations sur les forums." + description: "Les LLM (Large Language Models) sont des outils d'IA optimisés pour des tâches telles que la synthèse de contenu, la génération de rapports, l'automatisation des interactions avec les clients et la facilitation de la modération et des informations sur les forums" fake: "Configuration manuelle" button: "Configurer" next: diff --git a/config/locales/client.he.yml b/config/locales/client.he.yml index 6a0d5cf76..177afc5fe 100644 --- a/config/locales/client.he.yml +++ b/config/locales/client.he.yml @@ -22,6 +22,8 @@ he: description: "הטבלה מפרטת את כמות הפוסטים שסווגו עם רגש שנקבע. הסיווג נעשה בעזרת המודל ‚SamLowe/roberta-base-go_emotions’." reports: filters: + group_by: + label: "קיבוץ לפי" sort_by: label: "מיון על פי" tag: @@ -87,10 +89,8 @@ he: description: "תיעדוף תוכן מהקבוצה הזאת בדוח" temperature: label: "טמפרטורה" - description: "טמפרטורה לשימוש למודל השפה הגדול (LLM), הגדלה תגדיל את האקראיות (0 לשימוש בברירת המחדל של הדגם)" top_p: label: "ה־P המובילים" - description: "ה־P המובילים לשימוש למודל השפה הגדול (LLM), הגדלה תגדיל את האקראיות (0 לשימוש בברירת המחדל של הדגם)" llm_triage: fields: system_prompt: @@ -132,6 +132,8 @@ he: model: label: "מודל" description: "מודל שפה שמשמש למיון ראשוני" + temperature: + label: "טמפרטורה" discourse_ai: title: "בינה מלאכותית" modals: @@ -188,7 +190,7 @@ he: no_users: "לא נמצאו נתוני שימוש של משתמשים" no_models: "לא נמצאו נתוני שימוש במודל" no_features: "לא נמצאו נתוני שימוש ביכולת" - subheader_description: "אסימונים הם היחידות הבסיסיות שבהם משתמשים LLMים כדי להבין וליצור טקסט, נתוני שימוש עשויים להשפיע על העלויות." + subheader_description: "אסימונים הם היחידות הבסיסיות שבהם משתמשים LLMים כדי להבין וליצור טקסט, נתוני שימוש עשויים להשפיע על העלויות" stat_tooltips: total_requests: "כל הבקשות שהוגשו ל־LLMים דרך Discourse" total_tokens: "כל האסימונים שבהם נעשה שימוש בעת שליחת בקשות ל־LLM" @@ -386,7 +388,7 @@ he: open_ai-o1: "מודל ההיגיון החזק ביותר מבית OpenAI" open_ai-o3-mini: "מודל הגיון מתקדם וחסכוני" samba_nova-Meta-Llama-3-1-8B-Instruct: "דגם רב־לשוני, קליל ויעיל" - samba_nova-Meta-Llama-3-1-70B-Instruct": "מודל רב־תכליתי חזק" + samba_nova-Meta-Llama-3-3-70B-Instruct": "מודל רב־תכליתי חזק" mistral-mistral-large-latest: "המודל החזק ביותר של Mistral" mistral-pixtral-large-latest: "המודל החזק ביותר של Mistral שבנוי לעיבוד חזותי" preseeded_model_description: "מודל קוד פתוח שהוגדר מראש ומשתמש ב־%{model}" @@ -396,7 +398,7 @@ he: preconfigured: title_no_llms: "נא לבחור תבנית כדי להתחיל" title: "תבניות LLM (מודלי שפה גדולים) לא מוגדרות" - description: "מש״ג/LLM (מודלי שפה גדולים/Large Language Models) הם כלי בינה מלאכותית למשימות כגון סיכום תוכן, יצירת דוחות, אוטומציה של תקשורת מול לקוחות ופיקוח על הפורום והפקת תובנות ממנו." + description: "מש״ג/LLM (מודלי שפה גדולים/Large Language Models) הם כלי בינה מלאכותית למשימות כגון סיכום תוכן, יצירת דוחות, אוטומציה של תקשורת מול לקוחות ופיקוח על הפורום והפקת תובנות ממנו" fake: "הגדרות ידניות" button: "הגדרה" next: @@ -435,6 +437,8 @@ he: disable_native_tools: "השבתת תמיכה בבלי מובנה (להשתמש בכלים מבוססי XML)" provider_order: "סדר ספקים (רשימה מופרדת בפסיקים)" provider_quantizations: "סדר כימות הספקים (רשימה מופרדת בפסיקים, למשל: fp16,fp8)" + enable_reasoning: "הפעלת נימוק (תקף רק על Sonnet 3.7)" + reasoning_tokens: "כמות אסימונים המשמשים לנימוק" related_topics: title: "נושאים קשורים" pill: "קשורים" diff --git a/config/locales/client.id.yml b/config/locales/client.id.yml index f7efde12c..12f87d4b2 100644 --- a/config/locales/client.id.yml +++ b/config/locales/client.id.yml @@ -71,7 +71,6 @@ id: label: "Temperatur" top_p: label: "Top P" - description: "Top P yang akan digunakan untuk LLM, tingkatkan untuk meningkatkan keacakan (0 untuk menggunakan model default)" llm_triage: fields: system_prompt: @@ -88,6 +87,8 @@ id: label: "Balas" model: label: "Model" + temperature: + label: "Temperatur" discourse_ai: title: "AI" modals: diff --git a/config/locales/client.it.yml b/config/locales/client.it.yml index 81fe714ab..dfa8c480c 100644 --- a/config/locales/client.it.yml +++ b/config/locales/client.it.yml @@ -87,10 +87,8 @@ it: description: "Dai la priorità ai contenuti di questo gruppo nel report" temperature: label: "Temperatura" - description: "Temperatura da utilizzare per il LLM. Aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)" top_p: label: "P superiore" - description: "P superiore da utilizzare per il LLM, aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ it: model: label: "Modello" description: "Modello linguistico utilizzato per il triage" + temperature: + label: "Temperatura" discourse_ai: title: "IA" modals: @@ -195,7 +195,7 @@ it: no_users: "Nessun dato trovato sull'utilizzo dell'utente" no_models: "Nessun dato trovato sull'utilizzo del modello" no_features: "Nessun dato trovato sull'utilizzo delle funzionalità" - subheader_description: "I token sono le unità di base che gli LLM utilizzano per comprendere e generare testo; i dati di utilizzo possono incidere sui costi." + subheader_description: "I token sono le unità di base che gli LLM utilizzano per comprendere e generare testo; i dati di utilizzo possono incidere sui costi" stat_tooltips: total_requests: "Tutte le richieste inoltrate agli LLM tramite Discourse" total_tokens: "Tutti i token utilizzati quando si richiede un LLM" @@ -382,7 +382,7 @@ it: open_ai-gpt-4o-mini: "Modello piccolo, economico e veloce per lavori leggeri" open_ai-o1-mini: "Modello di ragionamento economicamente efficiente" samba_nova-Meta-Llama-3-1-8B-Instruct: "Modello multilingue leggero ed efficiente" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Potente modello multifunzionale" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Potente modello multifunzionale" mistral-mistral-large-latest: "Il modello più potente di Mistral" mistral-pixtral-large-latest: "Il modello con capacità di visione più potente di Mistral" preseeded_model_description: "Modello open source preconfigurato che utilizza %{model}" @@ -392,7 +392,7 @@ it: preconfigured: title_no_llms: "Seleziona un modello per iniziare" title: "Modelli LLM non configurati" - description: "Gli LLM (Large Language Models) sono strumenti di intelligenza artificiale ottimizzati per attività quali la sintesi dei contenuti, la generazione di report, l'automazione delle interazioni con i clienti e la facilitazione della moderazione e degli approfondimenti dei forum." + description: "Gli LLM (Large Language Models) sono strumenti di intelligenza artificiale ottimizzati per attività quali la sintesi dei contenuti, la generazione di report, l'automazione delle interazioni con i clienti e la facilitazione della moderazione e degli approfondimenti dei forum" fake: "Configurazione manuale" button: "Configura" next: diff --git a/config/locales/client.ja.yml b/config/locales/client.ja.yml index fa69f8044..423e9727e 100644 --- a/config/locales/client.ja.yml +++ b/config/locales/client.ja.yml @@ -87,10 +87,8 @@ ja: description: "レポートでこのグループのコンテンツを優先します" temperature: label: "Temperature" - description: "LLM に使用する Temperature。値を増やすとランダム性が増加します (モデルのデフォルトを使用する場合は 0)" top_p: label: "Top P" - description: "LLM に使用する Top P。値を増やすとランダム性が増加します (モデルのデフォルトを使用する場合は 0)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ ja: model: label: "モデル" description: "トリアージに使用される言語モデル" + temperature: + label: "Temperature" discourse_ai: title: "AI" modals: @@ -195,7 +195,6 @@ ja: no_users: "ユーザー使用状況データが見つかりません" no_models: "モデル使用状況データが見つかりません" no_features: "機能使用状況データが見つかりません" - subheader_description: "トークンは、LLM がテキストを理解して生成するために使用する基本単位であり、使用状況データがコストに影響する可能性があります。" stat_tooltips: total_requests: "Discourse を通じて LLM に行われたすべてのリクエスト" total_tokens: "LLM のプロンプトに使用されるすべてのトークン" @@ -380,7 +379,7 @@ ja: open_ai-gpt-4o-mini: "軽量なタスクに対応する手頃で高速な小型モデル" open_ai-o1-mini: "コスト効率の良い推論モデル" samba_nova-Meta-Llama-3-1-8B-Instruct: "効率的な軽量多言語モデル" - samba_nova-Meta-Llama-3-1-70B-Instruct": "強力な多目的モデル" + samba_nova-Meta-Llama-3-3-70B-Instruct": "強力な多目的モデル" mistral-mistral-large-latest: "Mistral の最も強力なモデル" mistral-pixtral-large-latest: "Mistral の最も強力なビジョン対応モデル" preseeded_model_description: "%{model} を利用する事前構成済みのオープンソースモデル" @@ -390,7 +389,6 @@ ja: preconfigured: title_no_llms: "開始するにはテンプレートを選択してください" title: "未構成の LLM テンプレート" - description: "LLM (大規模言語モデル) は、コンテンツの要約、レポートの生成、顧客とのやり取りの自動化、フォーラムのモデレーションとインサイトの促進などのタスク用に最適化された AI ツールです。" fake: "手動構成" button: "セットアップ" next: diff --git a/config/locales/client.nl.yml b/config/locales/client.nl.yml index 0e2a0cfa9..5bbfca45b 100644 --- a/config/locales/client.nl.yml +++ b/config/locales/client.nl.yml @@ -87,10 +87,8 @@ nl: description: "Geef prioriteit aan content van deze groep in het rapport" temperature: label: "Temperatuur" - description: "Te gebruiken temperatuur voor de LLM. Verhoog deze om de willekeur te vergroten (0 om de standaardinstelling van het model te gebruiken)" top_p: label: "Top P" - description: "Te gebruiken Top P voor de LLM. Verhoog deze om de willekeur te vergroten (0 om de standaardinstelling van het model te gebruiken)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ nl: model: label: "Model" description: "Taalmodel gebruikt voor triage" + temperature: + label: "Temperatuur" discourse_ai: title: "AI" modals: @@ -195,7 +195,7 @@ nl: no_users: "Geen gebruikergebruiksgegevens gevonden" no_models: "Geen modelgebruiksgegevens gevonden" no_features: "Geen functiegebruiksgegevens gevonden" - subheader_description: "Tokens zijn de basiseenheden die LLM's gebruiken om tekst te begrijpen en te genereren. Gebruiksgegevens kunnen de kosten beïnvloeden." + subheader_description: "Tokens zijn de basiseenheden die LLM's gebruiken om tekst te begrijpen en te genereren. Gebruiksgegevens kunnen de kosten beïnvloeden" stat_tooltips: total_requests: "Alle verzoeken aan LLM's via Discourse" total_tokens: "Alle tokens die zijn gebruikt bij het prompten van een LLM" @@ -382,7 +382,7 @@ nl: open_ai-gpt-4o-mini: "Betaalbaar, snel en klein model voor lichte taken" open_ai-o1-mini: "Kostenefficiënt redeneringsmodel" samba_nova-Meta-Llama-3-1-8B-Instruct: "Efficiënt lichtgewicht meertalig model" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Krachtig multifunctioneel model" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Krachtig multifunctioneel model" mistral-mistral-large-latest: "Het krachtigste model van Mistral" mistral-pixtral-large-latest: "Het krachtigste model met zichtcapaciteit van Mistral" preseeded_model_description: "Voorgeconfigureerd open-source model met %{model}" @@ -392,7 +392,7 @@ nl: preconfigured: title_no_llms: "Selecteer een sjabloon om te beginnen" title: "Niet-geconfigureerde LLM-sjablonen" - description: "LLM's (Large Language Models) zijn AI-tools die zijn geoptimaliseerd voor taken als het samenvatten van inhoud, het genereren van rapporten, het automatiseren van klantinteracties en het faciliteren van forummoderatie en inzichten." + description: "LLM's (Large Language Models) zijn AI-tools die zijn geoptimaliseerd voor taken als het samenvatten van inhoud, het genereren van rapporten, het automatiseren van klantinteracties en het faciliteren van forummoderatie en inzichten" fake: "Handmatige configuratie" button: "Instellen" next: diff --git a/config/locales/client.pl_PL.yml b/config/locales/client.pl_PL.yml index de195fc6a..4c5db0b16 100644 --- a/config/locales/client.pl_PL.yml +++ b/config/locales/client.pl_PL.yml @@ -98,6 +98,8 @@ pl_PL: label: "Ukryj temat" model: label: "Model" + temperature: + label: "Temperatura" discourse_ai: title: "AI" modals: diff --git a/config/locales/client.pt_BR.yml b/config/locales/client.pt_BR.yml index 1bd3c1671..bcc7bb938 100644 --- a/config/locales/client.pt_BR.yml +++ b/config/locales/client.pt_BR.yml @@ -87,10 +87,8 @@ pt_BR: description: "Priorizar o conteúdo deste grupo no relatório" temperature: label: "Temperatura" - description: "Temperatura para usar para o LLM. Aumente para incrementar o fator aleatório (0 para usar o padrão do modelo)" top_p: label: "Maior P" - description: "P Máximo para usar no LLM, aumente para incrementar o fator aleatório (0 para usar o padrão do modelo)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ pt_BR: model: label: "Modelo" description: "Modelo de linguagem usado para triagem" + temperature: + label: "Temperatura" discourse_ai: title: "IA" modals: @@ -195,7 +195,7 @@ pt_BR: no_users: "Sem dados de uso do(a) usuário(a) encontrados" no_models: "Sem dados de uso de modelo encontrados" no_features: "Sem dados de uso de recurso encontrados" - subheader_description: "Tokens são unidades básicas usadas por LLMs para compreender e gerar texto. Os dados de uso podem afetar o custo." + subheader_description: "Tokens são unidades básicas usadas por LLMs para compreender e gerar texto. Os dados de uso podem afetar o custo" stat_tooltips: total_requests: "Todos os pedidos feitos para LLMs através do Discourse" total_tokens: "Todos os tokens usados ao enviar comandos para um LLM" @@ -382,7 +382,7 @@ pt_BR: open_ai-gpt-4o-mini: "Modelo pequeno e acessível para tarefas leves" open_ai-o1-mini: "Modelo de raciocínio econômico" samba_nova-Meta-Llama-3-1-8B-Instruct: "Modelo multi-idioma leve e eficiente" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Modelo multifinalidade poderoso" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Modelo multifinalidade poderoso" mistral-mistral-large-latest: "Modelo mais poderoso da Mistral" mistral-pixtral-large-latest: "Modelo mais poderoso com capacidade de visão da Mistral" preseeded_model_description: "Modelo de código aberto pré-configurado que utiliza %{model}" @@ -392,7 +392,7 @@ pt_BR: preconfigured: title_no_llms: "Selecione um modelo para começar" title: "Modelos LLM não configurados" - description: "LLMs (Large Language Models) são ferramentas de AI otimizadas para tarefas como resumo de conteúdo, geração de relatórios, automatização de interações com cliente, além de ideias e moderação facilitada de fóruns." + description: "LLMs (Large Language Models) são ferramentas de AI otimizadas para tarefas como resumo de conteúdo, geração de relatórios, automatização de interações com cliente, além de ideias e moderação facilitada de fóruns" fake: "Configuração manual" button: "Configurar" next: diff --git a/config/locales/client.ru.yml b/config/locales/client.ru.yml index 391e7f1ac..056adff1c 100644 --- a/config/locales/client.ru.yml +++ b/config/locales/client.ru.yml @@ -87,10 +87,8 @@ ru: description: "Приоритизировать контент из этой группы в отчете" temperature: label: "Температура" - description: "Температура — параметр для LLM. Увеличение его значения повышает степень случайности (0, чтобы использовать настройки модели по умолчанию)." top_p: label: "Top P" - description: "Top P — параметр LLM, его увеличение приводит к увеличению случайности (0, чтобы использовать настройки модели по умолчанию)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ ru: model: label: "Модель" description: "Языковая модель для приоритизации" + temperature: + label: "Температура" discourse_ai: title: "AI" modals: @@ -195,7 +195,7 @@ ru: no_users: "Данные об использовании пользователем не найдены" no_models: "Данные об использовании модели не найдены" no_features: "Данные об использовании функций не найдены" - subheader_description: "Токены — это основные единицы, которые LLM используют для понимания и генерации текста. Данные об использовании могут влиять на стоимость." + subheader_description: "Токены — это основные единицы, которые LLM используют для понимания и генерации текста. Данные об использовании могут влиять на стоимость" stat_tooltips: total_requests: "Все запросы, направленные LLM через Discourse" total_tokens: "Все токены, задействованные при запросе к LLM" @@ -386,7 +386,7 @@ ru: open_ai-gpt-4o-mini: "Доступная и быстрая небольшая модель для простых задач" open_ai-o1-mini: "Экономически эффективная модель с поддержкой рассуждений" samba_nova-Meta-Llama-3-1-8B-Instruct: "Эффективная легкая многоязычная модель" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Мощная многофункциональная модель" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Мощная многофункциональная модель" mistral-mistral-large-latest: "Самая мощная модель Mistral" mistral-pixtral-large-latest: "Самая мощная модель Mistral, поддерживающая обработку изображений" preseeded_model_description: "Предварительно настроенная модель с открытым исходным кодом, использующая %{model}" @@ -396,7 +396,7 @@ ru: preconfigured: title_no_llms: "Выберите шаблон, чтобы начать" title: "Ненастроенные шаблоны LLM" - description: "LLM (Large Language Models, большие языковые модели) — это инструменты искусственного интеллекта, оптимизированные для таких задач, как обобщение контента, создание отчетов, автоматизация взаимодействия с клиентами, упрощение модерации форумов и анализ информации." + description: "LLM (Large Language Models, большие языковые модели) — это инструменты искусственного интеллекта, оптимизированные для таких задач, как обобщение контента, создание отчетов, автоматизация взаимодействия с клиентами, упрощение модерации форумов и анализ информации" fake: "Ручная настройка" button: "Настроить" next: diff --git a/config/locales/client.tr_TR.yml b/config/locales/client.tr_TR.yml index c65c75a7c..d56d4eef3 100644 --- a/config/locales/client.tr_TR.yml +++ b/config/locales/client.tr_TR.yml @@ -87,10 +87,8 @@ tr_TR: description: "Raporda bu gruptan gelen içeriği önceliklendirin" temperature: label: "Sıcaklık" - description: "LLM için kullanılacak sıcaklık. Rastgeleliği artırmak için artırın (model varsayılanını kullanmak için 0)" top_p: label: "Üst P" - description: "LLM için kullanılacak en iyi P, rastgeleliği artırmak için artırın (model varsayılanını kullanmak için 0)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ tr_TR: model: label: "Model" description: "Triyaj için kullanılan dil modeli" + temperature: + label: "Sıcaklık" discourse_ai: title: "YZ" modals: @@ -195,7 +195,7 @@ tr_TR: no_users: "Kullanıcı kullanım verisi bulunamadı" no_models: "Model kullanım verisi bulunamadı" no_features: "Özellik kullanım verisi bulunamadı" - subheader_description: "Token'lar, LLM'lerin metinleri anlamak ve üretmek için kullandıkları temel birimlerdir, kullanım verileri maliyetleri etkileyebilir." + subheader_description: "Token'lar, LLM'lerin metinleri anlamak ve üretmek için kullandıkları temel birimlerdir, kullanım verileri maliyetleri etkileyebilir" stat_tooltips: total_requests: "Discourse aracılığıyla LLM'lere yapılan tüm talepler" total_tokens: "LLM istenirken kullanılan tüm token'lar" @@ -382,7 +382,7 @@ tr_TR: open_ai-gpt-4o-mini: "Hafif görevler için uygun fiyatlı ve hızlı küçük model" open_ai-o1-mini: "Uygun maliyetli muhakeme modeli" samba_nova-Meta-Llama-3-1-8B-Instruct: "Verimli hafif çok dilli model" - samba_nova-Meta-Llama-3-1-70B-Instruct": "Güçlü çok amaçlı model" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Güçlü çok amaçlı model" mistral-mistral-large-latest: "Mistral'in en güçlü modeli" mistral-pixtral-large-latest: "Mistral'in en güçlü görüş yeteneğine sahip modeli" preseeded_model_description: "%{model} kullanan önceden yapılandırılmış açık kaynaklı model" @@ -392,7 +392,7 @@ tr_TR: preconfigured: title_no_llms: "Başlamak için bir şablon seçin" title: "Yapılandırılmamış LLM şablonları" - description: "LLM'ler (Büyük Dil Modelleri) içeriği özetlemek, raporlar oluşturmak, müşteri etkileşimlerini otomatikleştirmek ve forum moderasyonunu ve içgörülerini kolaylaştırmak gibi görevler için optimize edilmiş YZ araçlarıdır." + description: "LLM'ler (Büyük Dil Modelleri) içeriği özetlemek, raporlar oluşturmak, müşteri etkileşimlerini otomatikleştirmek ve forum moderasyonunu ve içgörülerini kolaylaştırmak gibi görevler için optimize edilmiş YZ araçlarıdır" fake: "Manuel yapılandırma" button: "Kur" next: diff --git a/config/locales/client.uk.yml b/config/locales/client.uk.yml index a91fc757d..0a60af4d5 100644 --- a/config/locales/client.uk.yml +++ b/config/locales/client.uk.yml @@ -78,7 +78,6 @@ uk: label: "Температура" top_p: label: "Top P" - description: "Top P, параметр LLM, підвищити для збільшення випадковості (0 для використання моделі стандартно)" llm_triage: fields: system_prompt: @@ -111,6 +110,8 @@ uk: model: label: "Модель" description: "Мовна модель, що використовується для тренування" + temperature: + label: "Температура" discourse_ai: title: "ШІ" modals: diff --git a/config/locales/client.zh_CN.yml b/config/locales/client.zh_CN.yml index 7e172d103..8ca4b7946 100644 --- a/config/locales/client.zh_CN.yml +++ b/config/locales/client.zh_CN.yml @@ -87,10 +87,8 @@ zh_CN: description: "在报告中优先考虑来自此群组的内容" temperature: label: "温度" - description: "用于 LLM 的温度。增大该值可以提升随机性(0 表示使用模型默认值)" top_p: label: "Top P" - description: "用于 LLM 的 Top P,增大可以提升随机性(0 表示使用模型默认值)" llm_triage: fields: system_prompt: @@ -132,6 +130,8 @@ zh_CN: model: label: "模型" description: "用于分类的语言模型" + temperature: + label: "温度" discourse_ai: title: "AI" modals: @@ -195,7 +195,6 @@ zh_CN: no_users: "找不到用户使用数据" no_models: "找不到模型使用数据" no_features: "找不到功能使用数据" - subheader_description: "词元是 LLM 用来理解和生成文本的基本单位,使用数据可能会影响成本。" stat_tooltips: total_requests: "通过 Discourse 向 LLM 提出的所有请求" total_tokens: "提示 LLM 时使用的所有词元" @@ -380,7 +379,7 @@ zh_CN: open_ai-gpt-4o-mini: "经济、快速的小型模型,适用于轻量级任务" open_ai-o1-mini: "经济高效的推理模型" samba_nova-Meta-Llama-3-1-8B-Instruct: "高效的轻量级多语言模型" - samba_nova-Meta-Llama-3-1-70B-Instruct": "强大的多用途模型" + samba_nova-Meta-Llama-3-3-70B-Instruct": "强大的多用途模型" mistral-mistral-large-latest: "Mistral 最强大的模型" mistral-pixtral-large-latest: "Mistral 最强大的视觉能力模型" preseeded_model_description: "利用 %{model} 的预配置开源模型" @@ -390,7 +389,6 @@ zh_CN: preconfigured: title_no_llms: "选择一个模板以开始" title: "未配置的 LLM 模板" - description: "LLM(大语言模型)是经过优化的 AI 工具,可用于执行总结内容、生成报告、自动执行客户互动以及促进论坛审核和见解等任务。" fake: "手动配置" button: "设置" next: diff --git a/config/locales/server.de.yml b/config/locales/server.de.yml index ce5115d42..7112c64f5 100644 --- a/config/locales/server.de.yml +++ b/config/locales/server.de.yml @@ -251,6 +251,7 @@ de: ai_bot: reply_error: "Entschuldigung, es sieht so aus, als ob unser System beim Versuch, zu antworten, auf ein unerwartetes Problem gestoßen ist.\n\n[details='Fehlerdetails']\n%{details}\n[/details]" default_pm_prefix: "[KI-Bot-PN ohne Titel]" + thinking: "Ich denke..." personas: default_llm_required: "Standard-LLM-Modell ist erforderlich, bevor der Chat aktiviert werden kann" cannot_delete_system_persona: "System-Personas können nicht gelöscht werden, bitte deaktiviere sie stattdessen"