第23页,共90页。 显示 897 条结果 (0.021 秒)
连接大模型
性。 # 查看模型参数 curl http://ip:端口/v1/models \ -H "api-key: 123" context_length应>=32k,太小会导致大模型无法回答问题。上下文长度(Context Length)指的是模型在一次处理过程中能够理解和生成的文本的最大长度。 image2025-4-19_14-33-33.png 测试文本输出。 curl --location 'http://ip:端口/v1/chat/completions' \ --header 'api-key: 123' \ --header 'Content-Type: application/json' \ --data公共设置-公共设置项
,SmartbiDemo数据源的链接字符串中的P自动更改为修改后的P。 修改IP地址后,需重启才生效! 自动获取IP 组件模板数据源的端口设置 用于修改内置的SmartbiDemo数据源的端口号。 修改后重启服务,SmartbiDemo数据源的链接字符串中的端口自动更改为修改后的端口。 适用于服务器部署的机器上,9001端口已被其他程序占用的情况。 修改端口号后,需重启才生效! 9001 报表耗时分析 用于设置是否开启报表的耗时分析功能。 关闭 是否获取总行数 用于设置开启自动获取总行数 是 自定义周开始时间设置 用于自定义设置周的开始时间,作用于周时间层次字段资源集成异常排查指南
参数显示值显示乱码,或者查询结果不符合预期,检查参数名称、参数显示值和参数真实值中是否包含中文,如果包含中文: 对于url地址,如果参数都在url中拼接,并且是tomcat服务器,需要修改tomcat/conf/server.xml 中Connector 中添加URIEncoding="UTF-8" 属性再重启服务; 对于form表单,检查form表单参数传递方式是否为get,如果是get,并且是tomcat服务器,需要修改tomcat/conf/server.xml 中Connector 中添加URIEncoding="UTF-8" 属性再重启服务; 对于form表单,检查form表单参数传递方式是否为post,如果是3、数据挖掘的Python计算节点集群
(飞腾2000)版本预编译Python安装包,其他操作系统参考文档末尾说明 1. 系统环境准备 配置防火墙,selinux相关操作,需要管理员权限。 所有节点均需要进行环境准备配置 1.1. 防火墙配置 为了便于安装,建议在安装前关闭防火墙。使用过程中,为了系统安全可以选择启用防火墙,但必须启用服务相关端口。 1.1.1. 关闭防火墙 临时关闭防火墙(立即生效) systemctl stop firewalld 永久关闭防火墙(重启后生效) systemctl disable firewalld 查看防火墙状态 systemctl status firewalld 1.1.2. 开启防火墙 相关服务及端口对照表多维引擎无法制作自助仪表盘查询失败,系统找不到指定的文件
:\Windows\Temp\tomcat.18081.6161668038199636495\webapps\smartbiolap\WEB-INF\lib\ant-1.9.15.jar (系统找不到指定的文件。) errorStackTrace=java.lang.IllegalStateException: java.io.FileNotFoundException: C:\Windows\Temp\tomcat.18081.6161668038199636495\webapps\smartbiolap\WEB-INF\lib\ant-1.9.15.jar (系统找不到指定的文件数据挖掘-合并列/合并行
;"> </div>{html} 概述 合并列是将两张表的数据按列合并,组成新表,行数不同时,缺失部分则自动填充空值。 image2020-5-21 16:27:6.png 输入/输出 输入 两个输入端口,用于接收两个数据集。 输出 一个输出端口,用于输出两个数据集按列合并后的结果。 参数设置 设置合并列的参数: image2020-5-21 16:48:31.png 设置说明如下: 参数 说明 选择左表字段 用于选择通过左侧输入端口连接的前置节点资源输出的数据集的列: 2022-02-11_15-45-26.png 选择右数据挖掘-合并列/合并行
;"> </div>{html} 概述 合并列是将两张表的数据按列合并,组成新表,行数不同时,缺失部分则自动填充空值。 image2020-5-21 16:27:6.png 输入/输出 输入 两个输入端口,用于接收两个数据集。 输出 一个输出端口,用于输出两个数据集按列合并后的结果。 参数设置 设置合并列的参数: image2020-5-21 16:48:31.png 设置说明如下: 参数 说明 选择左表字段 用于选择通过左侧输入端口连接的前置节点资源输出的数据集的列: 2022-02-11_15-45-26.png 选择右⬝ 卸载数据挖掘
1、卸载Spark ①停止spark服务 进入spark安装目录中,执行脚本停止spark服务,参考如下: cd /opt/spark-2.4.0-bin-hadoop2.7/bin ./stop-all.sh ②如果部署Spark服务时开启了防火墙端口,则需要关闭对应的端口,参考如下: firewall-cmd … 脚本停止hadoop服务,参考如下: cd /opt/hadoop-2.7.3/ ./sbin/stop-dfs.sh ②如果部署Hadoop服务时开启了防火墙端口,则需要关闭对应的端口,参考如下: firewall-cmd --zone=public --remove-port=50090/tcp卸载数据挖掘
1、卸载Spark ①停止spark服务 进入spark安装目录中,执行脚本停止spark服务,参考如下: cd /opt/spark-2.4.0-bin-hadoop2.7/bin ./stop-all.sh ②如果部署Spark服务时开启了防火墙端口,则需要关闭对应的端口,参考如下: firewall-cmd … 脚本停止hadoop服务,参考如下: cd /opt/hadoop-2.7.3/ ./sbin/stop-dfs.sh ②如果部署Hadoop服务时开启了防火墙端口,则需要关闭对应的端口,参考如下: firewall-cmd --zone=public --remove-port=50090/tcp安装部署SmartbiTimeSeries
SmartbiTimeSeries服务 安装包解压后,进入解压目录,双击startup_SmartbiTimeSeries.cmd 脚本,就可以启动 SmartbiTimeSeries 服务。 image2024-12-2_19-14-0.png 配置文件修改 修改监听端口 编辑 startup_SmartbiTimeSeries.cmd 脚本,修改 httpListenAddr 参数值,默认端口是8428 image2024-12-2_19-17-36.png 运维SmartbiTimeSeries 前台启停 启动服务 双击 startup_SmartbiTimeSeries.cmd 脚本,即可启动服务。 停止服务