本系列目录 不同的链接指向的页面如果具有大量相同的内容,这种现象就会被称为"重复内容",如果一个网站的重复内容很多,搜索引擎就会认为这个网站的价值不高.所以我们应尽量避免各种重复内容. 动态网站的重复内容常常是由URL参数引起的,而URL重写会恶化这一现象(比较耐人寻味哟,呵呵).因为如果使用的是原始的URL参数的话,搜索引擎可能会进行适当的判断,而得知重复内容是由URL参数引起的,自动的进行相应的处理:而URL重写会掩盖URL参数,反而使得搜索引擎无法识别URL参数.比如: 原始的U…
本系列目录 我们经常说"404错误",你知道他指的是什么意思么? 404其实是Http报头所包含的一个"状态码",表明该Http请求失败.那么除此之外,还有哪些常用的状态码呢?这些状态码和SEO又有什么关系呢? 每次当用户代理(可以理解为就是IE和Firefox)向Web站点请求一个URL地址,服务器都会给予回复,回复内容包括两部分:HTTP报头,和被请求的内容.但仅从浏览器上我们通常只能看到内容而看不到报头信息.所以,我们需要通过一些浏览器插件来观察他们.就我个人…
在VS中右击项目,添加新项,我们找到.ashx文件在新建项模板中叫做“一般处理程序”,那么这个一般处理程序用来干吗的呢? 我们可以这样地简单理解,嗯,不需搞得太复杂,它就类似.aspx文件,用于处理传入到服务器的HTTP请求,但它不会像.aspx文件那样要返回处理结果和大量HTML,它可以返回简单的字符串.图片等. 大家知道,HttpHandle需要在Web.Config文件中进行相应的配置,那么,如果不配置呢?能否直接使用?可以的,来,动手玩玩. 1.在项目中添加一个.ashx文件,并改写默代…
今天主要讨论:哈希函数.哈希表.布隆过滤器.一致性哈希.并查集的介绍和应用. 题目一 认识哈希函数和哈希表 1.输入无限大 2.输出有限的S集合 3.输入什么就输出什么 4.会发生哈希碰撞 5.会均匀分布,哈希函数的离散性,打乱输入规律 public class Code_01_HashMap { public static void main(String[] args) { HashMap<String, String> map = new HashMap<>(); map.p…
ASP.NET的SEO:基础知识 ASP.NET的SEO:Global.asax和HttpModule中的RewritePath()方法--友好的URL ASP.NET的SEO:正则表达式 ASP.NET的SEO:服务器控件背后--SEO友好的Html和JavaScript ASP.NET的SEO:使用.ashx文件--排除重复内容 ASP.NET的SEO:HTTP报头状态码---内容重定向 ASP.NET的SEO:Linq to XML---网站地图和RSS Feed ASP.NET的SEO:…
如果是在解决方案中的Web项目中创建.ashx文件,没有文件头,不能直接读取到html页面传来的参数值. 用context.Request["参数名"]来获取参数值. 用context.Response.Write(参数名(string))来输出.…
前台页面: <%@ Page Language="C#" AutoEventWireup="true" CodeBehind="WebForm1.aspx.cs" Inherits="WebApplication2.WebForm1" %> <!DOCTYPE html> <html xmlns="http://www.w3.org/1999/xhtml"> <he…
第一种:通过FTP来上传文件 首先,在另外一台服务器上设置好FTP服务,并创建好允许上传的用户和密码,然后,在ASP.NET里就可以直接将文件上传到这台 FTP 服务器上了.代码如下: <%@ Page Language="C#" EnableViewState="false"%> <%@ Import Namespace="System.Net" %><%@ Import Namespace="Syste…
本系列目录网站地图的作用是让搜索引擎尽快的,更多的收录网站的各个网页.    这里我们首先要明白一个基本的原理,搜索引擎的爬行方式.整个互联网就像一张纵横交错的"网":网的各个节点就是各个网页,而各个网页之间通过url相互连接.蜘蛛可以从一个网页出发,通过该网页上的url,爬到另一个网页:再通过另一个网页上的url,再爬到更多的网页--,以此类推.但如果是一个新发布的网站,可能就没有其他url指向它,那么它就永远不会被"爬到"(收录).为了解决这个问题,新站可以自己…
本系列目录网站地图的作用是让搜索引擎尽快的,更多的收录网站的各个网页.    这里我们首先要明白一个基本的原理,搜索引擎的爬行方式.整个互联网就像一张纵横交错的"网":网的各个节点就是各个网页,而各个网页之间通过url相互连接.蜘蛛可以从一个网页出发,通过该网页上的url,爬到另一个网页:再通过另一个网页上的url,再爬到更多的网页--,以此类推.但如果是一个新发布的网站,可能就没有其他url指向它,那么它就永远不会被"爬到"(收录).为了解决这个问题,新站可以自己…