欢迎进入极速独立站群官方网! 咨询电话:13135381668 销售QQ:1000207

当前位置:首页 - - SEO优化 - 建站技巧 - 文章详情
编辑推荐

互联网创业成功之道(四):完善功能 让网站更易用

浏览:902 发布时间:2019-06-06

  各种互联网项目,新手可操作,几乎都是0门槛

运营是站点持续成长的关键,只有对站群网站的内容进行详细而独到的规划和实施,再加上必不可少的运营,网站才能在竞争中立于不败之地。

一、为新网站快速充实内容

二、避免复制 实用的内容防盗法

三、内容整合 制作网站地图

四、站群论坛搬家软件快速转移数据

五、防止网站内容被剽窃

六、向域名限制说不

以上内容详细信息可到“互联网创业成功之道(四):防止网站内容被剽窃”阅读。

七、让网站风格随时间变化

现在很多网站都有风格切换的功能,但是通常只能通过手动点击切换模板,对于个人网站或者小众类的特色网站来说,如果能够根据时间自动调整网站风格,比如在白天显示清新的页面模板,而在夜晚显示黑色调的风格,则会给访客一种耳目一新的感觉。这样一来就很容易让网友记住你的站点,也彰显了网站的“个性”,下面就来介绍一下实现方法。

1.ASP网站风格代码

对于采用ASP架构的网站来说,可以直接采用以下的ASP代码,就可以实现网站风格随时间变化的效果了,方法是直接在ASP程序的标签中加入以下代码:

"/>

其中morning.css表示白天显示的样式表文件,而night.css则是夜晚显示的风格,只需要分别制作不同的CSS文件即可。

2.PHP站点的风格变化

如果是采用PHP架构的网站,则可以使用以下PHP代码。将其加入网站的PHP文件头部代码中即可。

小提示:

加入代码后需要删除默认的样式表链接文件,否则将可能出现页面错位的现象。

3.静态页面采用JavaScript代码

对于将网站页面生成了html静态页面的站点来说,同样可以采用一款JavaScript代码实现站点风格的变化效果,使用方法非常简单,只需要在网站的页面中加上以下代码即可。

小提示:

很多浏览器会禁止JavaScript的显示,为了保证这类用户可以正常访问网站,所以不要忘了设置一个默认的CSS样式哦。

网站有了基本的框架和内容,其实就已经建立完毕,但接下来的维护却是一项长期的工作。在“新站维护三部曲”的文章系列中,我们会将网站的一些常见维护问题集中进行说明,包括完善新建网站的基本功能,制作网站地图和内容复制提示等新手站长最易遇到的难题。

八、完善功能 让网站更易用

1.获知浏览数据

网站每天被多少人访问,他们都来自哪里、用的何种操作系统、浏览了那些网页?要知道这些问题的答案,最简单实用的方法就是为网站添加统计程序。

维度(Vdoing)统计是一款将即时通讯软件与网站数据分析相结合的客户端程序,与其它统计服务不同的是,它是一款新型的网站流量统计以及数据分析查询工具,特点是各类数据都基于软件客户端,并且内置了多种数据统计模块,可以获得更为详尽的站点统计资料。而且目前已经推出了支持手机的客户端。

 

图11

维度统计在基本的网站数据统计的基础上, 加上了“人口统计学数据“和“用户模型数据”。虽然国外已经有了不少类似的网站统计服务,比如ChatStat、Woopra等。维度统计与它们类似,都是将流量统计与即时通讯的功能相结合,不过由于它们都不是中文软件,服务器放置在国外,如果是国内网站使用国外的统计系统,则会在速度等方面存在不少问题。

要使用统计程序,首先下载安装软件,而后注册用户即可,进入软件后,首先添加需要统计的网站,而后获取一个代码如下:

将以上代码放置在网站的底部,程序就会自动开始各项数据的统计,读者可以参见it.endto.com放置后的底部效果。

2.设置站内搜索 找内容不再难

一般来说,网站程序的内置搜索功能占用的资源较大,而且搜索的精确度也无法保证,用大型的搜索引擎实现站内的搜索功能,既节省了资源,还可以让搜索速度变得更快。

我们可以使用搜索引擎的站内代码放置于网站中,这种方式不仅搜索速度快,并且对网站资源没有一点影响。唯一美中不足的就是,网站内容需要被搜索引擎收录后才能够被搜索到。不过对于大多数中小型网站来说,已经非常够用了。

百度的用户相对来说比较多,很多网友习惯用百度进行搜索。以下就是百度搜索的代码和效果图例。在使用时,需要将其中的域名www.shudoo.com替换为自己网站的域名即可。

9pt;">
baidu">

互联网 www.shudoo.com

 

图12

在添加了网站的站内搜索后,用户可以方便的通过搜索功能查找自己需要的信息。在我们提供的演示网站中,已经同步了百度站内搜索的效果演示。

九、避免搜索引擎“泄密”

搜索引擎都是使用专门的程序robot来自动索引内容,但是对于很多网站来说,都有不便公开的网页,诸如程序的管理界面、存放数据库或其它重要内容的目录等。Robots.txt是一个放置于网站目录中的文本文件,我们可以通过该文件声明网站中不想被搜索引擎访问的部分。

1.知己知彼 详细了解robots.txt

robots.txt是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉搜索引擎的网页抓取程序,网站中内容那些可以被获取,以及那些不能收录。搜索引擎在访问网站中的内容信息时,会首先检查网站的根目录下是否存在robots.txt文件,该文件通过记事本建立即可,放置在网站根目录就可以了。

 

图13

我们还可以在每个网页的头部使用Robots Meta Tag标签来提示搜索引擎是否可抓取网页,该代码通常放置于HTML代码的HEAD区域中,它的格式如下所示:

robots.txt是搜索引擎间约定俗成的规则,国外的Google、雅虎、微软,国内的百度等搜索引擎都遵守的robots.txt文件撰写标准。

小提示:

因为一些服务器系统对大小写区分,所以robots.txt文件名必须全部是小写,而且最好是放在网站根目录中。

2.合理撰写 隐藏网站内容

除了一些涉及到网站安全的文件以外,网站中的程序脚本、样式表等文件即使被蜘蛛索引,也不会增加网站的收录数量,还只会占用服务器带宽资源。因此统一需要在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。

要撰写robots.txt文件,需要按照相应的规范来填写,百度就有专门的说明页面http://www.baidu.com/search/robots.html,上面有各类robots.txt文件用法的举例说明。

通常情况下,robots.txt文件有以下两个标记组成:

User-Agent: 表示需要拦截的搜索引擎robots名称,比如谷歌的就是googlebot,而百度搜索则是baiduspider。

Disallow: 表示不需要被索引的栏目或文件,

小提示:

在撰写robots.txt文件的时候一定要非常仔细,如果失误把所有的网站页面都屏蔽,那可就得不偿失了。

3.举一反三 排除重复页面

现在大多数网站都是使用动态程序搭建,并且另外生成了静态页面供访客浏览,但是动态的页面仍然会被搜索引擎索引到。这样一来就会造成重复页面,让搜索引擎对网站的权重降低。

这时我们就可以通过robots.txt文件的设置,避免搜索引擎访问到动态页面,以保证这些网页不会被视为重复的内容。

敬请关注:

第五章 网站的管理与维护

相关链接:

互联网创业成功之道(三):从理论到实践 网站创业实战修改

《互联网创业成功之道:网站策划、建设、推广盈利实战攻略》是一本全面讲解网站建设全过程的一本书籍,也是作者五年以来建站经验的总结。

本书围绕网站建设的全过程展开,从网站策划开始,逐一讲解了网站创建、网站内容管理、网站维护、网络营销方案、网站SEO、网站盈利技巧等实际操作,并以实例的形式为大家介绍了成功的网络创业案例和网站运营中的误区,让大家可以学习最直接的建站经验。

A5站长网将连载本书,如果您想抢先阅读,可到卓越网等网上书店购买,该书在全国各地新华书店亦有销售。

作者:陶秋丰(EndTo) 出版社: 电脑报电子音像出版社。