spark任务在执行期间,有时候会遇到临时目录创建失败,导致任务执行错误. java.io.IOException: Failed to create local dir in -- spark执行过程的文件夹 spark创建临时文件机制 spark作为并行计算框架,同一个作业会被划分为多个任务在多个节点执行,reduce的输入可能存在于多个节点,因此需要shuffle将所有reduce的输入汇总起来:而shuffle时需要通过diskBlockManage将map结果写入本地,优先写入memo
有时候遇到SqlServer一些报错需要上网查找解决方法,一些比较生僻的问题汉语搜索往往得不到想要的,就要使用英文在外网搜索.之前都是自己尝试翻译,或者使用错误码,或者找个英文版的数据库重现问题.有时候经过多次搜索才能找到准确的翻译,然后使用精确的英文在bing中搜索.今天知道其实在SqlServer中自带了各种语言版本的信息,在sys.messsages中. 入下面的报错: select * from sys.messages where text like '%函数要求有%个参数.' 然后再
windows修改系统登录密码后,出现SQLserver服务无法启动,启动报错17051具体报错如下: 根据错误提示,去到windows的事件查看器.在win10上,右击左下角的菜单图标:然后依次点击Windows日志=>应用程序,根据来源找到MSSQLSERVER,再根据错误提示上的错误码找到17051: 双击后可查看日志信息,如下:至此,原因已经很明显了.安装的是SQL Server 2012评估版,180天的试用期后,MSSQLSERVER服务就无法启动,手动启动就报告17051错误.具体