วิธีการทำเส้นโค้งแบบเอ็กซ์โพเนนเชียลและลอการิทึมใน Python? ฉันพบว่าเหมาะสมกับพหุนามเท่านั้น


157

ฉันมีชุดข้อมูลและฉันต้องการเปรียบเทียบว่าบรรทัดใดอธิบายได้ดีที่สุด (พหุนามคำสั่งต่าง ๆ เลขยกกำลังหรือลอการิทึม)

ผมใช้งูหลามและ Numpy polyfit()และเหมาะสมพหุนามมีฟังก์ชั่น แต่ฉันไม่พบฟังก์ชันดังกล่าวสำหรับการยกกำลังแบบเอ็กซ์โปเนนเชียลและลอการิทึม

ยังมี .... บ้าง? หรือวิธีการแก้มันเป็นอย่างอื่น?

คำตอบ:


222

สำหรับการปรับy = A + B log xเพียงแค่ให้พอดีกับy (ล็อกx )

>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> numpy.polyfit(numpy.log(x), y, 1)
array([ 8.46295607,  6.61867463])
# y ≈ 8.46 log(x) + 6.62

สำหรับกระชับY = Ae Bxใช้ลอการิทึมของทั้งสองด้านให้บันทึกY = เข้าสู่ระบบ+ Bx ดังนั้นพอดี (บันทึกY ) กับx

หมายเหตุที่เหมาะสม (บันทึกY ) ราวกับว่ามันเป็นเส้นตรงจะเน้นค่าเล็ก ๆ ของปีที่ก่อให้เกิดการเบี่ยงเบนขนาดใหญ่สำหรับขนาดใหญ่ปี นี้เป็นเพราะpolyfit(ถดถอยเชิงเส้น) ทำงานโดยการลดΣ ผมY ) 2 = Σ ผม ( Y ฉัน - Y ฉัน ) 2 เมื่อY i = log y iสิ่งตกค้างΔ Y i = Δ (บันทึกy i ) ≈Δ y i / | y i | ดังนั้นแม้ว่าpolyfitทำให้การตัดสินใจที่แย่มากสำหรับy ที่มีขนาดใหญ่"การหารด้วย | y |" ปัจจัยจะชดเชยให้มันก่อให้เกิดpolyfitค่าน้อย

ซึ่งอาจจะบรรเทาได้โดยให้แต่ละรายการเป็น "น้ำหนัก" สัดส่วนกับY polyfitรองรับน้ำหนักอย่างน้อยกำลังสองผ่านทางwอาร์กิวเมนต์ของคำหลัก

>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> numpy.polyfit(x, numpy.log(y), 1)
array([ 0.10502711, -0.40116352])
#    y ≈ exp(-0.401) * exp(0.105 * x) = 0.670 * exp(0.105 * x)
# (^ biased towards small values)
>>> numpy.polyfit(x, numpy.log(y), 1, w=numpy.sqrt(y))
array([ 0.06009446,  1.41648096])
#    y ≈ exp(1.42) * exp(0.0601 * x) = 4.12 * exp(0.0601 * x)
# (^ not so biased)

โปรดทราบว่า Excel, LibreOffice และเครื่องคำนวณทางวิทยาศาสตร์ส่วนใหญ่มักใช้สูตรที่ไม่มีการถ่วงน้ำหนัก หากคุณต้องการให้ผลลัพธ์ของคุณเข้ากันได้กับแพลตฟอร์มเหล่านี้อย่ารวมน้ำหนักแม้ว่ามันจะให้ผลลัพธ์ที่ดีกว่า


ตอนนี้ถ้าคุณสามารถใช้ scipy คุณสามารถใช้scipy.optimize.curve_fitเพื่อให้พอดีกับโมเดลใด ๆ โดยไม่มีการแปลง

สำหรับy = A + B log xผลลัพธ์จะเหมือนกับวิธีการแปลงภาพ:

>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> scipy.optimize.curve_fit(lambda t,a,b: a+b*numpy.log(t),  x,  y)
(array([ 6.61867467,  8.46295606]), 
 array([[ 28.15948002,  -7.89609542],
        [ -7.89609542,   2.9857172 ]]))
# y ≈ 6.62 + 8.46 log(x)

สำหรับy = Ae Bxอย่างไรก็ตามเราสามารถทำให้พอดีได้ดีขึ้นเนื่องจากมันคำนวณΔ (บันทึกy ) โดยตรง แต่เราต้องจัดเตรียมการคาดเดาเพื่อเริ่มต้นให้curve_fitถึงขั้นต่ำสุดที่ต้องการ

>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t),  x,  y)
(array([  5.60728326e-21,   9.99993501e-01]),
 array([[  4.14809412e-27,  -1.45078961e-08],
        [ -1.45078961e-08,   5.07411462e+10]]))
# oops, definitely wrong.
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t),  x,  y,  p0=(4, 0.1))
(array([ 4.88003249,  0.05531256]),
 array([[  1.01261314e+01,  -4.31940132e-02],
        [ -4.31940132e-02,   1.91188656e-04]]))
# y ≈ 4.88 exp(0.0553 x). much better.

การเปรียบเทียบการถดถอยเชิงเลขชี้กำลัง


2
@Tomas: ใช่ การเปลี่ยนฐานของบันทึกเพียงแค่เพิ่มค่าคงที่เพื่อบันทึก x หรือ log y ซึ่งไม่มีผลต่อ r ^ 2
kennytm

4
สิ่งนี้จะให้น้ำหนักมากขึ้นกับค่าที่ y ขนาดเล็ก ดังนั้นจึงเป็นการดีกว่าที่จะให้น้ำหนักกับค่า chi-squared โดย y_i
Rupert Nash

17
วิธีนี้ไม่ถูกต้องในแง่ของความโค้งแบบดั้งเดิม มันจะไม่ลดกำลังสองของผลรวมของส่วนที่เหลือในพื้นที่เชิงเส้น แต่ในพื้นที่บันทึก ดังกล่าวก่อนหน้านี้การเปลี่ยนแปลงน้ำหนักของจุดอย่างมีประสิทธิภาพ - การสังเกตที่yมีขนาดเล็กจะมีน้ำหนักเกินเทียม มันจะดีกว่าที่จะกำหนดฟังก์ชั่น (เชิงเส้นไม่ใช่การแปลงบันทึก) และใช้เส้นโค้งช่างฟิตหรือ minimizer
santon

3
@santon ระบุอคติในการถดถอยแบบเอ็กซ์โปเนนเชียล
kennytm

2
ขอบคุณสำหรับการเพิ่มน้ำหนัก! คนจำนวนมาก / ส่วนใหญ่ไม่ทราบว่าคุณสามารถได้รับผลลัพธ์ที่ไม่ดีถ้าคุณพยายามที่จะบันทึก (ข้อมูล) และเรียกใช้บรรทัด (เช่น Excel) เหมือนที่ฉันทำมานานหลายปี เมื่อครู Bayesian ของฉันแสดงให้ฉันเห็นฉันเป็นเหมือน "แต่พวกเขาไม่สอนวิธี [ผิด] ในร่างกายหรือไม่" - "ใช่เราเรียกมันว่า" baby physics "มันเป็นความเรียบง่ายนี่เป็นวิธีที่ถูกต้องที่จะทำ"
DeusXMachina

102

นอกจากนี้คุณยังสามารถใส่ชุดของข้อมูลที่จะทำงานอะไรก็ตามที่คุณต้องการใช้จากcurve_fit scipy.optimizeตัวอย่างเช่นถ้าคุณต้องการใส่ฟังก์ชั่นเอ็กซ์โปเนนเชียล (จากเอกสาร ):

import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit

def func(x, a, b, c):
    return a * np.exp(-b * x) + c

x = np.linspace(0,4,50)
y = func(x, 2.5, 1.3, 0.5)
yn = y + 0.2*np.random.normal(size=len(x))

popt, pcov = curve_fit(func, x, yn)

และถ้าคุณต้องการพล็อตคุณสามารถทำได้:

plt.figure()
plt.plot(x, yn, 'ko', label="Original Noised Data")
plt.plot(x, func(x, *popt), 'r-', label="Fitted Curve")
plt.legend()
plt.show()

(หมายเหตุ: *ในด้านหน้าของpoptเมื่อคุณวางแผนจะขยายออกแง่ลงในa, bและcว่าfunc. คาดว่า)


2
ดี มีวิธีตรวจสอบความพอดีที่เราได้รับหรือไม่? ค่า R-squared? มีพารามิเตอร์อัลกอริธึมการปรับให้เหมาะสมต่าง ๆ ที่คุณสามารถลองใช้เพื่อหาวิธีแก้ปัญหาที่ดีกว่า (หรือเร็วกว่า) ได้หรือไม่?
user391339

เพื่อความสมบูรณ์ของความพอดีคุณสามารถโยนพารามิเตอร์ที่ได้รับการปรับให้เหมาะสมลงในฟังก์ชันเพิ่มประสิทธิภาพ scipy chisquare; มันจะคืนค่า 2 ค่าตัวที่สองคือ p-value

ความคิดใด ๆ เกี่ยวกับวิธีการเลือกพารามิเตอร์a, bและc?
I_told_you_so

47

ฉันกำลังมีปัญหากับเรื่องนี้ดังนั้นขอให้ฉันอย่างชัดเจนมากเพื่อที่จะได้ไม่มีใครเข้าใจ

ให้บอกว่าเรามีไฟล์ข้อมูลหรืออะไรทำนองนั้น

# -*- coding: utf-8 -*-

import matplotlib.pyplot as plt
from scipy.optimize import curve_fit
import numpy as np
import sympy as sym

"""
Generate some data, let's imagine that you already have this. 
"""
x = np.linspace(0, 3, 50)
y = np.exp(x)

"""
Plot your data
"""
plt.plot(x, y, 'ro',label="Original Data")

"""
brutal force to avoid errors
"""    
x = np.array(x, dtype=float) #transform your data in a numpy array of floats 
y = np.array(y, dtype=float) #so the curve_fit can work

"""
create a function to fit with your data. a, b, c and d are the coefficients
that curve_fit will calculate for you. 
In this part you need to guess and/or use mathematical knowledge to find
a function that resembles your data
"""
def func(x, a, b, c, d):
    return a*x**3 + b*x**2 +c*x + d

"""
make the curve_fit
"""
popt, pcov = curve_fit(func, x, y)

"""
The result is:
popt[0] = a , popt[1] = b, popt[2] = c and popt[3] = d of the function,
so f(x) = popt[0]*x**3 + popt[1]*x**2 + popt[2]*x + popt[3].
"""
print "a = %s , b = %s, c = %s, d = %s" % (popt[0], popt[1], popt[2], popt[3])

"""
Use sympy to generate the latex sintax of the function
"""
xs = sym.Symbol('\lambda')    
tex = sym.latex(func(xs,*popt)).replace('$', '')
plt.title(r'$f(\lambda)= %s$' %(tex),fontsize=16)

"""
Print the coefficients and plot the funcion.
"""

plt.plot(x, func(x, *popt), label="Fitted Curve") #same as line above \/
#plt.plot(x, popt[0]*x**3 + popt[1]*x**2 + popt[2]*x + popt[3], label="Fitted Curve") 

plt.legend(loc='upper left')
plt.show()

ผลลัพธ์คือ: a = 0.849195983017, b = -1.18101681765, c = 2.24061176543, d = 0.816643894816

ข้อมูลดิบและฟังก์ชั่นการติดตั้ง


8
y = [np.exp(i) for i in x]ช้ามาก เหตุผลหนึ่งที่ถูกสร้างขึ้นเพื่อให้คุณสามารถเขียนy=np.exp(x)ได้ คุณสามารถกำจัดส่วนที่โหดร้ายของคุณได้ ใน ipython มี%timeitเวทย์มนตร์จากการที่ In [27]: %timeit ylist=[exp(i) for i in x] 10000 loops, best of 3: 172 us per loop In [28]: %timeit yarr=exp(x) 100000 loops, best of 3: 2.85 us per loop
ยอมรับ

1
ขอบคุณคุณยอมรับถูกต้อง แต่ส่วนแรงโหดร้ายที่ฉันยังต้องใช้เมื่อฉันจัดการกับข้อมูลจาก csv, xls หรือรูปแบบอื่น ๆ ที่ฉันต้องเผชิญกับการใช้อัลกอริทึมนี้ ฉันคิดว่าการใช้งานนี้เหมาะสมเมื่อมีคนพยายามปรับฟังก์ชั่นจากข้อมูลการทดลองหรือการจำลองเท่านั้นและจากประสบการณ์ของฉันข้อมูลนี้มาในรูปแบบแปลก ๆ เสมอ
ลีอันโดร

3
x = np.array(x, dtype=float)ควรให้คุณกำจัดรายการที่เข้าใจง่าย
Ajasja

8

ฉันเดาว่าคุณสามารถใช้:

np.log   -->  natural log
np.log10 -->  base 10
np.log2  -->  base 2

แก้ไขคำตอบของ IanVSเล็กน้อย:

import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit

def func(x, a, b, c):
  #return a * np.exp(-b * x) + c
  return a * np.log(b * x) + c

x = np.linspace(1,5,50)   # changed boundary conditions to avoid division by 0
y = func(x, 2.5, 1.3, 0.5)
yn = y + 0.2*np.random.normal(size=len(x))

popt, pcov = curve_fit(func, x, yn)

plt.figure()
plt.plot(x, yn, 'ko', label="Original Noised Data")
plt.plot(x, func(x, *popt), 'r-', label="Fitted Curve")
plt.legend()
plt.show()

ผลลัพธ์นี้ในกราฟต่อไปนี้:

ป้อนคำอธิบายรูปภาพที่นี่


มีค่าความอิ่มตัวของสีที่พอดีพอดีหรือไม่? ถ้าเป็นเช่นนั้นจะเข้าถึงได้อย่างไร?
Ben

7

นี่เป็นเชิงเส้นตัวเลือกข้อมูลอย่างง่ายที่ใช้เครื่องมือจากscikit เรียนรู้

ป.ร. ให้ไว้

import numpy as np

import matplotlib.pyplot as plt

from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import FunctionTransformer


np.random.seed(123)

# General Functions
def func_exp(x, a, b, c):
    """Return values from a general exponential function."""
    return a * np.exp(b * x) + c


def func_log(x, a, b, c):
    """Return values from a general log function."""
    return a * np.log(b * x) + c


# Helper
def generate_data(func, *args, jitter=0):
    """Return a tuple of arrays with random data along a general function."""
    xs = np.linspace(1, 5, 50)
    ys = func(xs, *args)
    noise = jitter * np.random.normal(size=len(xs)) + jitter
    xs = xs.reshape(-1, 1)                                  # xs[:, np.newaxis]
    ys = (ys + noise).reshape(-1, 1)
    return xs, ys
transformer = FunctionTransformer(np.log, validate=True)

รหัส

พอดีกับข้อมูลเลขชี้กำลัง

# Data
x_samp, y_samp = generate_data(func_exp, 2.5, 1.2, 0.7, jitter=3)
y_trans = transformer.fit_transform(y_samp)             # 1

# Regression
regressor = LinearRegression()
results = regressor.fit(x_samp, y_trans)                # 2
model = results.predict
y_fit = model(x_samp)

# Visualization
plt.scatter(x_samp, y_samp)
plt.plot(x_samp, np.exp(y_fit), "k--", label="Fit")     # 3
plt.title("Exponential Fit")

ป้อนคำอธิบายรูปภาพที่นี่

พอดีกับข้อมูลบันทึก

# Data
x_samp, y_samp = generate_data(func_log, 2.5, 1.2, 0.7, jitter=0.15)
x_trans = transformer.fit_transform(x_samp)             # 1

# Regression
regressor = LinearRegression()
results = regressor.fit(x_trans, y_samp)                # 2
model = results.predict
y_fit = model(x_trans)

# Visualization
plt.scatter(x_samp, y_samp)
plt.plot(x_samp, y_fit, "k--", label="Fit")             # 3
plt.title("Logarithmic Fit")

ป้อนคำอธิบายรูปภาพที่นี่


รายละเอียด

ขั้นตอนทั่วไป

  1. ใช้การดำเนินการบันทึกเป็นค่าข้อมูล ( x, yหรือทั้งสอง)
  2. ถอยหลังข้อมูลไปยังตัวแบบเชิงเส้น
  3. วางแผนโดย "ย้อนกลับ" การดำเนินการบันทึกใด ๆ (พร้อมnp.exp()) และพอดีกับข้อมูลต้นฉบับ

สมมติว่าข้อมูลของเราเป็นไปตามแนวโน้มแบบทวีคูณสมการทั่วไป+อาจเป็น:

ป้อนคำอธิบายรูปภาพที่นี่

เราสามารถสร้างสมการเชิงเส้นหลัง (เช่น y = สกัดกั้น + ความชัน * x) โดยการบันทึก :

ป้อนคำอธิบายรูปภาพที่นี่

ด้วยสมการเชิงเส้นตรง++และพารามิเตอร์การถดถอยเราสามารถคำนวณ:

  • Aผ่านการสกัดกั้น ( ln(A))
  • Bผ่านทางลาด ( B)

สรุปเทคนิคการสร้างเส้นตรง

Relationship |  Example   |     General Eqn.     |  Altered Var.  |        Linearized Eqn.  
-------------|------------|----------------------|----------------|------------------------------------------
Linear       | x          | y =     B * x    + C | -              |        y =   C    + B * x
Logarithmic  | log(x)     | y = A * log(B*x) + C | log(x)         |        y =   C    + A * (log(B) + log(x))
Exponential  | 2**x, e**x | y = A * exp(B*x) + C | log(y)         | log(y-C) = log(A) + B * x
Power        | x**2       | y =     B * x**N + C | log(x), log(y) | log(y-C) = log(B) + N * log(x)

+หมายเหตุ: ฟังก์ชั่นการยกกำลังเชิงเส้นจะทำงานได้ดีที่สุดเมื่อเสียงมีขนาดเล็กและ C = 0 ใช้ด้วยความระมัดระวัง

++หมายเหตุ: ในขณะที่การเปลี่ยนแปลง x ข้อมูลที่จะช่วยให้ linearize ชี้แจงข้อมูลแก้ไขข้อมูล Y ช่วย linearize บันทึกข้อมูล


0

เราแสดงให้เห็นถึงคุณสมบัติของlmfitในขณะที่การแก้ปัญหาทั้งสอง

ป.ร. ให้ไว้

import lmfit

import numpy as np

import matplotlib.pyplot as plt


%matplotlib inline
np.random.seed(123)

# General Functions
def func_log(x, a, b, c):
    """Return values from a general log function."""
    return a * np.log(b * x) + c


# Data
x_samp = np.linspace(1, 5, 50)
_noise = np.random.normal(size=len(x_samp), scale=0.06)
y_samp = 2.5 * np.exp(1.2 * x_samp) + 0.7 + _noise
y_samp2 = 2.5 * np.log(1.2 * x_samp) + 0.7 + _noise

รหัส

วิธีที่ 1 - lmfitโมเดล

พอดีกับข้อมูลเลขชี้กำลัง

regressor = lmfit.models.ExponentialModel()                # 1    
initial_guess = dict(amplitude=1, decay=-1)                # 2
results = regressor.fit(y_samp, x=x_samp, **initial_guess)
y_fit = results.best_fit    

plt.plot(x_samp, y_samp, "o", label="Data")
plt.plot(x_samp, y_fit, "k--", label="Fit")
plt.legend()

ป้อนคำอธิบายรูปภาพที่นี่

วิธีที่ 2 - โมเดลที่กำหนดเอง

พอดีกับข้อมูลบันทึก

regressor = lmfit.Model(func_log)                          # 1
initial_guess = dict(a=1, b=.1, c=.1)                      # 2
results = regressor.fit(y_samp2, x=x_samp, **initial_guess)
y_fit = results.best_fit

plt.plot(x_samp, y_samp2, "o", label="Data")
plt.plot(x_samp, y_fit, "k--", label="Fit")
plt.legend()

ป้อนคำอธิบายรูปภาพที่นี่


รายละเอียด

  1. เลือกคลาสการถดถอย
  2. ระบุชื่อซัพพลายคาดเดาเริ่มต้นที่เกี่ยวข้องกับโดเมนของฟังก์ชัน

คุณสามารถกำหนดพารามิเตอร์ที่อนุมานจากวัตถุ regressor ตัวอย่าง:

regressor.param_names
# ['decay', 'amplitude']

หมายเหตุ: ฟังก์ชัน decayExponentialModel()ต่อไปนี้ซึ่งยอมรับพารามิเตอร์สองตัวหนึ่งตัวซึ่งหนึ่งในนั้นเป็นค่าลบ

ป้อนคำอธิบายรูปภาพที่นี่

ดูเพิ่มเติมExponentialGaussianModel()ซึ่งยอมรับพารามิเตอร์เพิ่มเติม

ติดตั้ง> pip install lmfitห้องสมุดผ่าน


0

วุลแฟรมมีวิธีการแก้ปัญหาแบบปิดสำหรับกระชับเลขชี้กำลัง พวกเขายังมีการแก้ปัญหาที่คล้ายกันสำหรับการปรับลอการิทึมและอำนาจกฎหมาย

ฉันพบว่าสิ่งนี้ทำงานได้ดีกว่า curve_fit ของ Scipy นี่คือตัวอย่าง:

import numpy as np
import matplotlib.pyplot as plt

# Fit the function y = A * exp(B * x) to the data
# returns (A, B)
# From: https://mathworld.wolfram.com/LeastSquaresFittingExponential.html
def fit_exp(xs, ys):
    S_x2_y = 0.0
    S_y_lny = 0.0
    S_x_y = 0.0
    S_x_y_lny = 0.0
    S_y = 0.0
    for (x,y) in zip(xs, ys):
        S_x2_y += x * x * y
        S_y_lny += y * np.log(y)
        S_x_y += x * y
        S_x_y_lny += x * y * np.log(y)
        S_y += y
    #end
    a = (S_x2_y * S_y_lny - S_x_y * S_x_y_lny) / (S_y * S_x2_y - S_x_y * S_x_y)
    b = (S_y * S_x_y_lny - S_x_y * S_y_lny) / (S_y * S_x2_y - S_x_y * S_x_y)
    return (np.exp(a), b)


xs = [33, 34, 35, 36, 37, 38, 39, 40, 41, 42]
ys = [3187, 3545, 4045, 4447, 4872, 5660, 5983, 6254, 6681, 7206]

(A, B) = fit_exp(xs, ys)

plt.figure()
plt.plot(xs, ys, 'o-', label='Raw Data')
plt.plot(xs, [A * np.exp(B *x) for x in xs], 'o-', label='Fit')

plt.title('Exponential Fit Test')
plt.xlabel('X')
plt.ylabel('Y')
plt.legend(loc='best')
plt.tight_layout()
plt.show()

ป้อนคำอธิบายรูปภาพที่นี่

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.