当前位置: 首页 > news >正文

杭州号码百事通做网站在线咨询

杭州号码百事通做网站,在线咨询,网站做专题,成都关键词seo推广电话目录 💗1. 准备工作和环境配置💕 💖安装OpenCV💕 💖安装Dlib💕 下载并编译TensorFlow C API💕 💗2. 下载和配置预训练模型💕 💖2.1 下载预训练的ResNet…

目录

💗1. 准备工作和环境配置💕

💖安装OpenCV💕

💖安装Dlib💕

下载并编译TensorFlow C++ API💕

💗2. 下载和配置预训练模型💕

💖2.1 下载预训练的ResNet-50模型💕

💖2.2 配置TensorFlow C++ API💕

💖2.3 加载和使用模型💕

💗3.编写代码进行图像分类💕

💖CMakeLists.txt💕

💖main.cpp💕

💗4. 代码分析和推导💕

💖初始化TensorFlow会话💕

💖读取和导入模型💕

💖读取输入图像💕

💖创建输入Tensor💕

💖运行会话并处理输出💕

💗5. 进阶优化与性能提升💕

💖多线程处理💕

💖GPU加速💕

💖模型优化💕

💗6. 问题与解决方案💕

💖问题1:内存不足💕

💖问题2:推理速度慢💕

💖问题3:模型兼容性问题💕

 


 

在现代机器学习和人工智能应用中,图像分类是一个非常常见且重要的任务。通过使用预训练模型,我们可以显著减少训练时间并提高准确性。C++作为一种高效的编程语言,特别适用于需要高性能计算的任务。226b4e959a0c4b4ca7e72460c6008eb7.png

💗1. 准备工作和环境配置💕

首先,我们需要配置开发环境。这里我们将使用以下工具和库:

  • C++ 编译器 (如GCC)
  • CMake 构建系统
  • OpenCV 库
  • Dlib 库
  • 下载并编译C++版本的TensorFlow

💖安装OpenCV💕

在Linux系统上,可以通过以下命令安装OpenCV:

sudo apt-get update
sudo apt-get install libopencv-dev

💖安装Dlib💕

Dlib是一个现代C++工具包,包含了机器学习算法和工具。可以通过以下命令安装:

git clone https://github.com/davisking/dlib.git
cd dlib
mkdir build
cd build
cmake ..
cmake --build .
sudo make install

下载并编译TensorFlow C++ API💕

下载TensorFlow的C++库并编译,可以参考TensorFlow官方文档进行详细的步骤。确保下载的版本与您当前的环境兼容。

💗2. 下载和配置预训练模型💕

使用ResNet-50模型,这是一个用于图像分类的深度卷积神经网络。在TensorFlow中,可以轻松地获取预训练的ResNet-50模型。以下是下载和配置ResNet-50模型的详细步骤:

💖2.1 下载预训练的ResNet-50模型💕

首先,我们需要下载预训练的ResNet-50模型。TensorFlow提供了很多预训练模型,您可以从TensorFlow的模型库中获取ResNet-50。

1.访问TensorFlow模型库: 打开浏览器,访问TensorFlow模型库的GitHub页面:TensorFlow Model Garden

2.选择预训练模型: 在模型库中找到ResNet-50模型。通常在tensorflow/models/official/vision/image_classification目录下可以找到相关的预训练模型。

3.下载模型文件: 下载模型文件,模型文件通常是一个.pb文件(TensorFlow模型的protobuf格式)。如果直接下载预训练模型文件不方便,可以使用TensorFlow的tf.keras.applications模块直接加载ResNet-50,并保存为.pb文件。

使用Python脚本下载并保存ResNet-50模型:

import tensorflow as tfmodel = tf.keras.applications.ResNet50(weights='imagenet')
model.save('resnet50_saved_model', save_format='tf')
  • 运行此脚本将会在当前目录生成一个名为resnet50_saved_model的文件夹,其中包含了模型的.pb文件。

💖2.2 配置TensorFlow C++ API💕

在下载模型文件后,我们需要配置TensorFlow的C++ API来加载和使用该模型。以下是配置步骤:

1.安装TensorFlow C++库: 从TensorFlow的官方网站下载适用于您的平台的TensorFlow C++库。如果没有现成的二进制包,可以从源代码编译TensorFlow C++库。

git clone https://github.com/tensorflow/tensorflow.git
cd tensorflow
./configure
bazel build //tensorflow:libtensorflow_cc.so

编译完成后,库文件位于bazel-bin/tensorflow目录下。

2.设置环境变量: 将TensorFlow C++库的包含路径和库文件路径添加到环境变量中。

export TF_CPP_INCLUDE_DIR=/path/to/tensorflow/include
export TF_CPP_LIB_DIR=/path/to/tensorflow/lib

3.配置CMakeLists.txt: 更新项目的CMakeLists.txt文件,包含TensorFlow C++库的路径。

cmake_minimum_required(VERSION 3.10)
project(ImageClassification)set(CMAKE_CXX_STANDARD 14)find_package(OpenCV REQUIRED)
find_package(Dlib REQUIRED)include_directories(${OpenCV_INCLUDE_DIRS})
include_directories(${Dlib_INCLUDE_DIRS})
include_directories(${TF_CPP_INCLUDE_DIR})
link_directories(${TF_CPP_LIB_DIR})add_executable(ImageClassification main.cpp)
target_link_libraries(ImageClassification ${OpenCV_LIBS} dlib::dlib tensorflow_cc)

💖2.3 加载和使用模型💕

在完成上述配置后,可以在C++代码中加载和使用ResNet-50模型。下面是示例代码,演示如何加载和使用该模型进行图像分类:

#include <iostream>
#include <opencv2/opencv.hpp>
#include <dlib/dnn.h>
#include <tensorflow/core/public/session.h>
#include <tensorflow/core/protobuf/meta_graph.pb.h>using namespace std;
using namespace cv;
using namespace tensorflow;// 定义图像分类函数
void classifyImage(const std::string& model_path, const std::string& image_path) {// 初始化TensorFlow会话Session* session;Status status = NewSession(SessionOptions(), &session);if (!status.ok()) {std::cerr << "Error creating TensorFlow session: " << status.ToString() << std::endl;return;}// 读取模型GraphDef graph_def;status = ReadBinaryProto(Env::Default(), model_path, &graph_def);if (!status.ok()) {std::cerr << "Error reading graph definition from " << model_path << ": " << status.ToString() << std::endl;return;}// 将模型导入会话status = session->Create(graph_def);if (!status.ok()) {std::cerr << "Error creating graph: " << status.ToString() << std::endl;return;}// 读取输入图像Mat img = imread(image_path);if (img.empty()) {std::cerr << "Error reading image: " << image_path << std::endl;return;}// 预处理图像Mat img_resized;resize(img, img_resized, Size(224, 224));img_resized.convertTo(img_resized, CV_32FC3);img_resized = img_resized / 255.0;// 创建输入TensorTensor input_tensor(DT_FLOAT, TensorShape({1, 224, 224, 3}));auto input_tensor_mapped = input_tensor.tensor<float, 4>();// 将图像数据复制到输入Tensorfor (int y = 0; y < 224; ++y) {for (int x = 0; x < 224; ++x) {for (int c = 0; c < 3; ++c) {input_tensor_mapped(0, y, x, c) = img_resized.at<Vec3f>(y, x)[c];}}}// 运行会话std::vector<Tensor> outputs;status = session->Run({{"input_tensor", input_tensor}}, {"output_tensor"}, {}, &outputs);if (!status.ok()) {std::cerr << "Error during inference: " << status.ToString() << std::endl;return;}// 处理输出auto output_tensor = outputs[0].tensor<float, 2>();int best_label = std::distance(output_tensor(0).data(), std::max_element(output_tensor(0).data(), output_tensor(0).data() + output_tensor.dim_size(1)));std::cout << "Predicted label: " << best_label << std::endl;// 清理session->Close();delete session;
}int main(int argc, char** argv) {if (argc != 3) {std::cerr << "Usage: " << argv[0] << " <model_path> <image_path>" << std::endl;return 1;}const std::string model_path = argv[1];const std::string image_path = argv[2];classifyImage(model_path, image_path);return 0;
}

💗3.编写代码进行图像分类💕

使用预训练的ResNet-50模型进行图像分类。

💖CMakeLists.txt💕

cmake_minimum_required(VERSION 3.10)
project(ImageClassification)set(CMAKE_CXX_STANDARD 14)find_package(OpenCV REQUIRED)
find_package(Dlib REQUIRED)include_directories(${OpenCV_INCLUDE_DIRS})
include_directories(${Dlib_INCLUDE_DIRS})
include_directories(/path/to/tensorflow/include)
link_directories(/path/to/tensorflow/lib)add_executable(ImageClassification main.cpp)
target_link_libraries(ImageClassification ${OpenCV_LIBS} dlib::dlib tensorflow)

💖main.cpp💕

#include <iostream>
#include <opencv2/opencv.hpp>
#include <dlib/dnn.h>
#include <tensorflow/core/public/session.h>
#include <tensorflow/core/protobuf/meta_graph.pb.h>using namespace std;
using namespace cv;
using namespace tensorflow;// 定义图像分类函数
void classifyImage(const std::string& model_path, const std::string& image_path) {// 初始化TensorFlow会话Session* session;Status status = NewSession(SessionOptions(), &session);if (!status.ok()) {std::cerr << "Error creating TensorFlow session: " << status.ToString() << std::endl;return;}// 读取模型GraphDef graph_def;status = ReadBinaryProto(Env::Default(), model_path, &graph_def);if (!status.ok()) {std::cerr << "Error reading graph definition from " << model_path << ": " << status.ToString() << std::endl;return;}// 将模型导入会话status = session->Create(graph_def);if (!status.ok()) {std::cerr << "Error creating graph: " << status.ToString() << std::endl;return;}// 读取输入图像Mat img = imread(image_path);if (img.empty()) {std::cerr << "Error reading image: " << image_path << std::endl;return;}// 预处理图像Mat img_resized;resize(img, img_resized, Size(224, 224));img_resized.convertTo(img_resized, CV_32FC3);img_resized = img_resized / 255.0;// 创建输入TensorTensor input_tensor(DT_FLOAT, TensorShape({1, 224, 224, 3}));auto input_tensor_mapped = input_tensor.tensor<float, 4>();// 将图像数据复制到输入Tensorfor (int y = 0; y < 224; ++y) {for (int x = 0; x < 224; ++x) {for (int c = 0; c < 3; ++c) {input_tensor_mapped(0, y, x, c) = img_resized.at<Vec3f>(y, x)[c];}}}// 运行会话std::vector<Tensor> outputs;status = session->Run({{"input_tensor", input_tensor}}, {"output_tensor"}, {}, &outputs);if (!status.ok()) {std::cerr << "Error during inference: " << status.ToString() << std::endl;return;}// 处理输出auto output_tensor = outputs[0].tensor<float, 2>();int best_label = std::distance(output_tensor(0).data(), std::max_element(output_tensor(0).data(), output_tensor(0).data() + output_tensor.dim_size(1)));std::cout << "Predicted label: " << best_label << std::endl;// 清理session->Close();delete session;
}int main(int argc, char** argv) {if (argc != 3) {std::cerr << "Usage: " << argv[0] << " <model_path> <image_path>" << std::endl;return 1;}const std::string model_path = argv[1];const std::string image_path = argv[2];classifyImage(model_path, image_path);return 0;
}

💗4. 代码分析和推导💕

💖初始化TensorFlow会话💕

首先,我们初始化一个TensorFlow会话。这个会话将用于执行图中的操作。

Session* session;
Status status = NewSession(SessionOptions(), &session);
if (!status.ok()) {std::cerr << "Error creating TensorFlow session: " << status.ToString() << std::endl;return;
}

💖读取和导入模型💕

使用ReadBinaryProto函数读取二进制格式的模型文件,并将其导入会话。

GraphDef graph_def;
status = ReadBinaryProto(Env::Default(), model_path, &graph_def);
if (!status.ok()) {std::cerr << "Error reading graph definition from " << model_path << ": " << status.ToString() << std::endl;return;
}status = session->Create(graph_def);
if (!status.ok()) {std::cerr << "Error creating graph: " << status.ToString() << std::endl;return;
}

💖读取输入图像💕

我们使用OpenCV读取图像,并将其大小调整为224x224,这是ResNet-50模型所需的输入尺寸。

Mat img = imread(image_path);
if (img.empty()) {std::cerr << "Error reading image: " << image_path << std::endl;return;
}Mat img_resized;
resize(img, img_resized, Size(224, 224));
img_resized.convertTo(img_resized, CV_32FC3);
img_resized = img_resized / 255.0;

💖创建输入Tensor💕

接下来,创建一个TensorFlow的Tensor,并将图像数据复制到该Tensor中。

Tensor input_tensor(DT_FLOAT, TensorShape({1, 224, 224, 3}));
auto input_tensor_mapped = input_tensor.tensor<float, 4>();for (int y = 0; y < 224; ++y) {for (int x = 0; x < 224; ++x) {for (int c = 0; c < 3; ++c) {input_tensor_mapped(0, y, x, c) = img_resized.at<Vec3f>(y, x)[c];}}
}

💖运行会话并处理输出💕

使用会话运行模型,并获取输出结果。

std::vector<Tensor> outputs;
status = session->Run({{"input_tensor", input_tensor}}, {"output_tensor"}, {}, &outputs);
if (!status.ok()) {std::cerr << "Error during inference: " << status.ToString() << std::endl;return;
}auto output_tensor = outputs[0].tensor<float, 2>();
int best_label = std::distance(output_tensor(0).data(), std::max_element(output_tensor(0).data(), output_tensor(0).data() + output_tensor.dim_size(1)));std::cout << "Predicted label: " << best_label << std::endl;

💗5. 进阶优化与性能提升💕

在这部分中,我们将探讨如何进一步优化代码以提高性能和效率。这些技巧和方法包括多线程处理、GPU加速、模型优化等。

💖多线程处理💕

在处理大量图像时,利用多线程可以显著提高处理速度。C++中的std::thread库使得多线程编程更加方便。多线程处理:

#include <thread>
#include <vector>// 定义一个处理图像的函数
void processImage(const std::string& model_path, const std::string& image_path) {classifyImage(model_path, image_path);
}int main(int argc, char** argv) {if (argc < 3) {std::cerr << "Usage: " << argv[0] << " <model_path> <image_paths...>" << std::endl;return 1;}const std::string model_path = argv[1];std::vector<std::string> image_paths;for (int i = 2; i < argc; ++i) {image_paths.push_back(argv[i]);}std::vector<std::thread> threads;for (const auto& image_path : image_paths) {threads.emplace_back(processImage, model_path, image_path);}for (auto& t : threads) {if (t.joinable()) {t.join();}}return 0;
}

通过这种方式,我们可以同时处理多个图像,从而提高整体处理效率。

💖GPU加速💕

GPU在处理大规模并行计算任务时具有显著优势。TensorFlow的C++ API支持GPU加速,只需在创建会话时指定GPU设备即可:

SessionOptions options;
options.config.mutable_gpu_options()->set_allow_growth(true);
Session* session;
Status status = NewSession(options, &session);
if (!status.ok()) {std::cerr << "Error creating TensorFlow session: " << status.ToString() << std::endl;return;
}

在配置好CUDA和cuDNN后,TensorFlow会自动利用GPU进行计算,从而显著提高计算速度。

💖模型优化💕

模型优化是提升推理速度和减少内存占用的重要手段。常用的方法包括模型量化和裁剪。可以使用TensorFlow的模型优化工具进行这些优化。

使用TensorFlow的模型优化API进行量化:

import tensorflow as tf
from tensorflow_model_optimization.quantization.keras import vitis_quantizemodel = tf.keras.models.load_model('model.h5')
quantized_model = vitis_quantize.quantize_model(model)
quantized_model.save('quantized_model.h5')

将量化后的模型加载到C++项目中,可以显著减少模型的计算量,从而提高推理速度。

💗6. 问题与解决方案💕

在实际应用中,可能会遇到各种问题。以下是一些常见问题及其解决方案,具体分析每种问题的可能原因和详细的解决步骤。

💖问题1:内存不足💕

解决方案:

1.减少批处理大小: 批处理大小(batch size)是指一次性送入模型进行处理的数据样本数。如果批处理大小过大,可能会导致内存溢出。可以通过减小批处理大小来减少内存使用。例如,将批处理大小从32减小到16甚至更小。

// 将批处理大小设置为1
Tensor input_tensor(DT_FLOAT, TensorShape({1, 224, 224, 3}));

2.使用模型量化技术: 模型量化通过将浮点数转换为低精度整数来减少模型大小和内存占用。TensorFlow提供了量化工具,可以在训练后对模型进行量化。

import tensorflow as tf
from tensorflow_model_optimization.quantization.keras import vitis_quantizemodel = tf.keras.models.load_model('model.h5')
quantized_model = vitis_quantize.quantize_model(model)
quantized_model.save('quantized_model.h5')

3.更高效的数据预处理方法: 使用OpenCV或其他图像处理库进行高效的数据预处理,尽量减少在内存中的图像副本。在读取图像后立即进行缩放和归一化处理。

Mat img = imread(image_path);
resize(img, img_resized, Size(224, 224));
img_resized.convertTo(img_resized, CV_32FC3);
img_resized = img_resized / 255.0;

💖问题2:推理速度慢💕

解决方案:

1.使用GPU加速: GPU在处理大规模并行计算任务时具有显著优势。在TensorFlow中可以通过指定GPU设备来加速推理。

SessionOptions options;
options.config.mutable_gpu_options()->set_allow_growth(true);
Session* session;
Status status = NewSession(options, &session);
if (!status.ok()) {std::cerr << "Error creating TensorFlow session: " << status.ToString() << std::endl;return;
}

2.利用多线程并行处理: 使用C++的多线程库(如std::thread)来并行处理多个图像,充分利用多核CPU的计算能力。

#include <thread>
#include <vector>void processImage(const std::string& model_path, const std::string& image_path) {classifyImage(model_path, image_path);
}int main(int argc, char** argv) {if (argc < 3) {std::cerr << "Usage: " << argv[0] << " <model_path> <image_paths...>" << std::endl;return 1;}const std::string model_path = argv[1];std::vector<std::string> image_paths;for (int i = 2; i < argc; ++i) {image_paths.push_back(argv[i]);}std::vector<std::thread> threads;for (const auto& image_path : image_paths) {threads.emplace_back(processImage, model_path, image_path);}for (auto& t : threads) {if (t.joinable()) {t.join();}}return 0;
}

3.优化模型结构: 优化模型结构,例如减少模型层数、使用更小的卷积核等,可以提高推理速度。具体方法包括剪枝、合并卷积层等。

4.使用模型量化和裁剪技术: 量化可以显著减少模型大小和计算量,从而提高推理速度。模型裁剪(pruning)通过去除不重要的权重来优化模型。

import tensorflow_model_optimization as tfmotprune_low_magnitude = tfmot.sparsity.keras.prune_low_magnitude
pruning_params = {'pruning_schedule': tfmot.sparsity.keras.PolynomialDecay(initial_sparsity=0.30,final_sparsity=0.70,begin_step=2000,end_step=10000)
}model_for_pruning = prune_low_magnitude(model, **pruning_params)
model_for_pruning.compile(optimizer='adam',loss=tf.keras.losses.categorical_crossentropy,metrics=['accuracy'])model_for_pruning.fit(train_data, train_labels, epochs=2, validation_split=0.1)

💖问题3:模型兼容性问题💕

解决方案:

  1. 确保模型文件和库版本匹配: 在不同平台上使用模型时,确保模型文件与库版本匹配非常重要。例如,TensorFlow模型的版本和TensorFlow库的版本必须一致。

  2. 重新训练和导出模型: 如果遇到兼容性问题,尝试在目标平台上重新训练并导出模型。这样可以确保模型和运行环境的完全兼容。

    import tensorflow as tf# 重新训练模型
    model = tf.keras.models.Sequential([tf.keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)),tf.keras.layers.MaxPooling2D((2, 2)),tf.keras.layers.Conv2D(64, (3, 3), activation='relu'),tf.keras.layers.MaxPooling2D((2, 2)),tf.keras.layers.Flatten(),tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dense(10, activation='softmax')
    ])model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
    model.fit(train_images, train_labels, epochs=10)# 导出模型
    model.save('retrained_model.h5')
    

    3.使用中间格式进行转换: 使用ONNX(开放神经网络交换)格式,可以在不同的深度学习框架之间转换模型。可以使用tf2onnx将TensorFlow模型转换为ONNX格式,然后在目标平台上加载ONNX模型。

    import tf2onnx
    import tensorflow as tfmodel = tf.keras.models.load_model('model.h5')
    spec = (tf.TensorSpec((None, 224, 224, 3), tf.float32, name="input"),)
    output_path = "model.onnx"model_proto, _ = tf2onnx.convert.from_keras(model, input_signature=spec, opset=13)
    with open(output_path, "wb") as f:f.write(model_proto.SerializeToString())
    

    然后在C++中使用ONNX Runtime加载和推理ONNX模型:

    #include <onnxruntime/core/providers/cpu/cpu_provider_factory.h>
    #include <onnxruntime/core/providers/tensorrt/tensorrt_provider_factory.h>
    #include <onnxruntime/core/session/onnxruntime_cxx_api.h>int main() {Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "ONNXModel");Ort::SessionOptions session_options;session_options.AppendExecutionProvider_TensorRT();session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_EXTENDED);Ort::Session session(env, "model.onnx", session_options);// 输入、输出和推理代码略...return 0;
    }
    

     

    2abe820ccf5e4af399c6049449f1dd1e.png

 


文章转载自:
http://throw.c7491.cn
http://amusedly.c7491.cn
http://oculomotor.c7491.cn
http://pursuant.c7491.cn
http://clonesome.c7491.cn
http://lighteness.c7491.cn
http://enarch.c7491.cn
http://smithite.c7491.cn
http://armpad.c7491.cn
http://kilogram.c7491.cn
http://infamous.c7491.cn
http://seppuku.c7491.cn
http://nineholes.c7491.cn
http://bloomsburian.c7491.cn
http://roscoelite.c7491.cn
http://mastering.c7491.cn
http://extraditable.c7491.cn
http://amebic.c7491.cn
http://unconversant.c7491.cn
http://pragmatist.c7491.cn
http://cherbourg.c7491.cn
http://rereward.c7491.cn
http://univalent.c7491.cn
http://hallow.c7491.cn
http://nozzle.c7491.cn
http://nimblewit.c7491.cn
http://matte.c7491.cn
http://distortionist.c7491.cn
http://varimax.c7491.cn
http://overflow.c7491.cn
http://leu.c7491.cn
http://polyoestrous.c7491.cn
http://hustler.c7491.cn
http://manjak.c7491.cn
http://phenacetin.c7491.cn
http://rand.c7491.cn
http://calisaya.c7491.cn
http://computerman.c7491.cn
http://pepsine.c7491.cn
http://platoon.c7491.cn
http://psoas.c7491.cn
http://clangour.c7491.cn
http://chromophore.c7491.cn
http://noncountry.c7491.cn
http://inelegance.c7491.cn
http://omelette.c7491.cn
http://sanctity.c7491.cn
http://ameliorable.c7491.cn
http://handlers.c7491.cn
http://smear.c7491.cn
http://lambaste.c7491.cn
http://untrammeled.c7491.cn
http://nitride.c7491.cn
http://withouten.c7491.cn
http://oxalacetic.c7491.cn
http://stem.c7491.cn
http://residenter.c7491.cn
http://sion.c7491.cn
http://saying.c7491.cn
http://dissolubility.c7491.cn
http://saccharify.c7491.cn
http://casehardened.c7491.cn
http://overinsure.c7491.cn
http://tegmen.c7491.cn
http://tsade.c7491.cn
http://withdrawal.c7491.cn
http://regroup.c7491.cn
http://avast.c7491.cn
http://menhir.c7491.cn
http://starter.c7491.cn
http://inelegancy.c7491.cn
http://sx.c7491.cn
http://preflight.c7491.cn
http://roz.c7491.cn
http://genealogize.c7491.cn
http://ignitor.c7491.cn
http://barefooted.c7491.cn
http://shellfishery.c7491.cn
http://pilotage.c7491.cn
http://recalcitrate.c7491.cn
http://auricula.c7491.cn
http://pmo.c7491.cn
http://tinned.c7491.cn
http://phonetic.c7491.cn
http://zaftig.c7491.cn
http://irresistibly.c7491.cn
http://hereabout.c7491.cn
http://meadowland.c7491.cn
http://coaxial.c7491.cn
http://iichester.c7491.cn
http://innocently.c7491.cn
http://nerol.c7491.cn
http://mariupol.c7491.cn
http://dicer.c7491.cn
http://euthanatize.c7491.cn
http://denunciator.c7491.cn
http://backwood.c7491.cn
http://chandlery.c7491.cn
http://finegrained.c7491.cn
http://pineapple.c7491.cn
http://www.zhongyajixie.com/news/90663.html

相关文章:

  • 怎样做ppt建网站seo查询外链
  • 制作网站难不难sem网络营销
  • 网站设置密码怎么破解网页在线秒收录
  • 广州网站制作开发公司百度搜索引擎入口官网
  • 怎么做交易猫假网站百度官方网站网址是多少
  • 个人网站网站建设方案书技成培训网
  • php网站开发参考文献网络营销策略是什么
  • 重庆南川网站制作公司哪家好乐事薯片软文推广
  • wordpress 免费博客平台百度seo怎么收费
  • wordpress两个域名访问不了南昌seo实用技巧
  • 临沂专业网站制作站长统计推荐
  • 济南助企网站建设公司怎么样化学sem是什么意思
  • 工控机做网站服务器360关键词推广
  • 惠州外贸网站建设网站运营
  • 贵阳公司网页网站建设安卓优化
  • 汽车销售网站网络推广 网站制作
  • 重庆微信网站开发公网店推广实训报告
  • 网站怎么做引流微信小程序开发工具
  • 网站mp3播放器代码重庆seo网站排名
  • 打开网站 显示建设中win优化大师有用吗
  • 广西网站建设费用开网店3个月来亏了10万
  • 台州网站制作计划北京seo排名厂家
  • 做企业网站通常哪找素材b站推广入口2023年
  • 设计网络网站有哪些功能百度一下 你就知道官方
  • 网站的建设是什么搜索引擎推广与优化
  • 如何做网站迁移微信营销软件免费版
  • 怎么访问被禁止的网站seo网站优化工具大全
  • 网站建设开什么名目seo知识分享
  • 独立站代运营公司常见的推广平台有哪些
  • 学校做网站难吗搜索引擎入口