如何快速新建一个网站网站流量排名
相信有很多互联网公司都有自己的网站,尤其做电商公司的,这里我先来给许多小白讲一下什么是SEO。
SEO,即搜索引擎优化(Search Engine Optimization),是一种通过优化网站内容、结构和外部链接等因素,以提高网站在搜索引擎中的排名和可见性的过程。目标是使网站在搜索引擎结果页面(SERP)中获得更高的排名,从而增加有意向的用户的流量和访问量。说白了就是我们不管是在什么浏览器,百度也好谷歌也好,当我们想要去根据关键字搜寻自己想要的网站或者资料的时候,只要点击百度一下下边就会出现一大堆链接,翻到最下边可以看到有很多页,所以摆明越靠前的网站越容易收到用户的关注和访问,我们做SEO优化,就是让我们自己的网站排名更靠前,来获取到更多的访问量和流量,从而来获利。
那么他是怎样来实现的呢,搜索引擎根据一系列算法来决定网站在搜索结果中的排名。SEO旨在理解这些算法,并根据它们的规则对网站进行优化,以提高其在搜索结果中的排名。
SEO有许多优势。首先,它可以增加网站的流量和访问量。通过在搜索引擎中获得更高的排名,网站将吸引更多的有意向用户,从而增加流量和访问量。其次,SEO可以提高品牌的知名度。出现在搜索结果的前几页将使您的品牌更容易被用户发现,增强其知名度和认知度。此外,SEO的成本相对较低,可以持续为您带来长期流量。相比之下,付费广告等其他营销策略可能会花费更多的成本。最重要的是,SEO主要针对寻找特定信息、产品或服务的潜在客户、信息搜索者和地理位置搜索者。通过SEO,您可以吸引这些有意向的用户到您的网站上,从而增加转化率。
我们去百度啊或者谷歌的官网,都能找到关于SEO的文档,通过API或者秘钥等的方式来取得网站的授权,从而在代码中实现,那么一下就是我的代码,这是根据Linux需要放到计划任务调整过之后的代码,如有需要可自行调整代码。当时使用之前肯定需要网站的json文件来授权。
关注我,下期更新bing(必应)推送SEO的代码。
bing(必应)SEO优化Python代码
此代码的运行需要传参式的来运行,例如
Python3 GoogleSEP.py 1
import time
import logging
import json
import argparse
import httplib2
from oauth2client.service_account import ServiceAccountCredentialsdef html_txt_logging(info):#新站点推送需要更换此处为新的log名称logger = logging.getLogger('booore.log') #新站点推送需要更换此处为新的log名称fh = logging.FileHandler("/usr/local/googleSEO/logs/booore.log", encoding="utf-8", mode="a") formatter = logging.Formatter("%(asctime)s - %(name)s-%(levelname)s %(message)s")fh.setFormatter(formatter)logger.setLevel(logging.INFO)if not logger.handlers:logger.addHandler(fh)logger.info(info)else:logger.info(info)def update_question(url, type="URL_UPDATED"):#新站点推送需要更换此处为新的json名称JSON_KEY_FILE = "booore-com-72835fc2344e.json" SCOPES = ["https://www.googleapis.com/auth/indexing"]ENDPOINT = "https://indexing.googleapis.com/v3/urlNotifications:publish"credentials = ServiceAccountCredentials.from_json_keyfile_name(JSON_KEY_FILE, scopes=SCOPES)http = credentials.authorize(httplib2.Http())content = {}content['url'] = urlcontent['type'] = typejson_content = json.dumps(content)response, content = http.request(ENDPOINT, method="POST", body=json_content)return response, contentdef read_urls_from_text(file_path):with open(file_path, 'r', encoding='utf-8') as file:urls = file.readlines()# 去除每个URL前后的空白字符urls = [url.strip() for url in urls]return urlsdef main():parser = argparse.ArgumentParser(description='GSC URL 处理脚本')parser.add_argument('type', choices=['0', '1'], help='处理类型,0是删除,1是更新')args = parser.parse_args()# 指定默认文件路径#新站点推送需要更换此处为新的url存放路径名称default_file_path = '/www/wwwroot/zhanqun.qkyai.cn/public/pushGoogle/booore.com' urls = read_urls_from_text(default_file_path)if args.type == '1':print('正在读取url...')print('读取完毕,正在更新地址...')for url in urls:response, content = update_question(url)html_txt_logging('update status:{};URl:{}'.format(response['status'], url))time.sleep(5)elif args.type == '0':print('正在读取url...')print('读取完毕,正在删除地址...')for url in urls:response, content = update_question(url, type="URL_DELETED")html_txt_logging('delete status:{};URl:{}'.format(response['status'], url))time.sleep(5)print('<-----处理完毕,查看日志可以浏览详细处理结果----->')if __name__ == "__main__":main()