Ubuntu里的若干问题解决方案】的更多相关文章

1. Ubuntu里出现两个屏幕,并且其中一个是“未知显示器”,无法去除时,可以尝试使用该命令:sudo apt-get install bumblebee-nvidia 2.虚拟机上Ubuntu开机显示“无法应用原保存的显示器配置“问题时,使用该命令:rm ~/.config/monitors.xml 3.出现”对不起,Ubuntu 14.04 LTS出现了内部错误“解决方法:vi /etc/default/apport 这个文件,找到这一行enabled=1,把1改为0. 注:通过重启查看问…
Ubuntu里字符编码设置   Ubuntu系统在默认的状况下只支持中文UTF-8编码,但是我们写的一些文档,还有java代码编译时采用gbk编码.所以需要修改.步骤如下:  www.2cto.com   第一步:gedit /var/lib/locales/supported.d/local来修改 /var/lib/locales/supported.d/local文件,在文件中添加如下内容: zh_CN.GBK GBK zh_CN.GB2312 GB2312 zh_CN. UTF-8 UTF…
Ubuntu 14.04 鼠标消失解决方案: 进入文字命令行模式,输入startx, 返回图像模式.…
Ubuntu里Eclipse关联Jdk 1.在Eclipse安装目录创建jre 文件. 2.ln  -s  jdk目录/bin  bin 输入上述命令,之后eclipse即可打开.…
在ubuntu里用sudo apt-get install nodejs安装Node.js后, 会发现terminals里运行node命令(比如node –-version)时候会有No such file or directory的错误. 引起这个错误的主要的主要原因是Node.js在ubuntu上默认被装到了/usr/bin/nodejs目录下,所以默认只能用nodejs来调用. 解决方法是运行下面命令,来创建一个文件连接,之后terminals里node就能正常工作了. sudo ln -…
ubuntu里用sudo apt-get install nodejs安装Node.js后, 发现terminals里运行node命令(比如node –-version)时候会有No such file or directory的错误. 引起这个错误的主要的主要原因是Node.js在ubuntu上默认被装到了/usr/bin/nodejs目录下, 所以默认只能用nodejs来调用. 解决方法是运行下面命令,来创建一个文件连接,之后terminals里node就能正常工作了. sudo ln -s…
最近在瞎折腾Unbunt,喜欢这里的干净和静谧.能留在这里,那么就得在这里工作,于是部署javaweb就成了头件大事了. 咨询了大牛,都说不会命令你玩毛玩linux,但是万万没有想到,原来ubuntu也是脑残版的部署. 都知道javaweb需要几件工具: 1,jdk: 2,eclipse; 3:tomcat; 4:mysql; 于是各种百度教程,都是一堆天书,这权限那那命令.如果你也是和我一样,linux白痴又想从头开始学习linux,那么先从第一步部署环境开始吧. 正文: 一:安装jdk和ec…
============================================================== 1. 现象 2. 原因分析 2.1 访问虚拟机中的mysql的前提: 你的电脑可以ping xxx.xx.xx.xxx 你的主机可以ping 通你的虚拟机    window中,window+r  打开命令窗口:输入 ipconfig 可以看到你主机的ip 在ubuntu中,进入命令行后,输入 ifconfig 可以看到ubuntu机器的ip [如果不知道怎么打开ubun…
一个众所周知的事实就是,Linux 是一个用户可以高度自定义的系统,有很多选项可以选择 —— 作为操作系统,有各种各样的发行版,而对于单个发行版来说,又有很多桌面环境可以选择.与其他操作系统的用户一样,Linux 用户也有不同的口味和喜好,特别是对于桌面来说. 一些用户并非很在意他们的桌面,而其他一些则非常关心,要确保他们的桌面看起来很酷,很有吸引力,对于这种情况,有很多不错的应用可以派上用场.有一个应用可以给你的桌面带来活力 —— 特别是当你常用一个全局菜单的时候 —— 这就是 dock .L…
本博文的主要内容是: 1. Hive本质解析 2. Hive安装实战 3. 使用Hive操作搜索引擎数据实战 SparkSQL前身是Shark,Shark强烈依赖于Hive.Spark原来没有做SQL多维度数据查询工具,后来开发了Shark,Shark依赖于Hive的解释引擎,部分在Spark中运行,还有一部分在Hadoop中运行.所以讲SparkSQL必须讲Hive. 1. Hive本质解析 1. Hive是分布式数据仓库,同时又是查询引擎,所以SparkSQL取代的只是Hive的查询引擎,在…