ตีความ XMP-Metadata ใน ALAssetRepresentation


95

เมื่อผู้ใช้ทำให้การเปลี่ยนแปลงบางอย่าง (การปลูกพืช, ลบตาแดง, ... ) ให้กับรูปถ่ายในในตัวPhotos.appบน iOS, การเปลี่ยนแปลงจะไม่นำไปใช้กับการส่งคืนโดยที่สอดคล้องกันfullResolutionImageALAssetRepresentation

อย่างไรก็ตามการเปลี่ยนแปลงจะนำไปใช้กับthumbnailและfullScreenImageส่งคืนโดยไฟล์ALAssetRepresentation. นอกจากนี้ข้อมูลเกี่ยวกับการเปลี่ยนแปลงประยุกต์ที่สามารถพบได้ในALAssetRepresentation's @"AdjustmentXMP"เมตาดาต้าพจนานุกรมผ่านที่สำคัญ

ฉันต้องการใช้การเปลี่ยนแปลงเหล่านี้กับfullResolutionImageตัวฉันเองเพื่อรักษาความสม่ำเสมอ ฉันได้พบว่าในiOS6 + CIFilter 's filterArrayFromSerializedXMP: inputImageExtent:error:สามารถแปลงนี้ XMP-ข้อมูลเมตาไปยังอาร์เรย์ของCIFilter' s:

ALAssetRepresentation *rep; 
NSString *xmpString = rep.metadata[@"AdjustmentXMP"];
NSData *xmpData = [xmpString dataUsingEncoding:NSUTF8StringEncoding];

CIImage *image = [CIImage imageWithCGImage:rep.fullResolutionImage];

NSError *error = nil;
NSArray *filterArray = [CIFilter filterArrayFromSerializedXMP:xmpData 
                                             inputImageExtent:image.extent 
                                                        error:&error];
if (error) {
     NSLog(@"Error during CIFilter creation: %@", [error localizedDescription]);
}

CIContext *context = [CIContext contextWithOptions:nil];

for (CIFilter *filter in filterArray) {
     [filter setValue:image forKey:kCIInputImageKey];
     image = [filter outputImage];
}

อย่างไรก็ตามวิธีนี้ใช้ได้กับตัวกรองบางตัวเท่านั้น (การครอบตัดการปรับแต่งภาพอัตโนมัติ) แต่ใช้ไม่ได้กับตัวกรองอื่น ๆ เช่นการลบตาแดง ในกรณีเหล่านี้CIFilterไม่มีผลใด ๆ ที่มองเห็นได้ ดังนั้นคำถามของฉัน:

  • มีใครพอทราบวิธีลบตาแดงCIFilterไหมคะ? (ในลักษณะที่สอดคล้องกับ Photos.app ฟิลเตอร์ที่มีคีย์kCIImageAutoAdjustRedEyeไม่เพียงพอเช่นไม่ใช้พารามิเตอร์สำหรับตำแหน่งของดวงตา)
  • มีความเป็นไปได้ที่จะสร้างและใช้ตัวกรองเหล่านี้ภายใต้ iOS 5 หรือไม่?

ลิงก์นี้ไปยังคำถาม Stackoverflow อื่นซึ่งมีอัลกอริทึมสำหรับตาแดง มันไม่มาก แต่เป็นการเริ่มต้น stackoverflow.com/questions/133675/red-eye-reduction-algorithm
Roecrew

ใน iOS 7 รหัสที่ระบุไว้อย่างถูกต้องจะใช้ฟิลเตอร์กำจัดตาแดง (ตัวกรองภายใน CIRedEyeCorrections)
paiv

คำตอบ:


2
ALAssetRepresentation* representation = [[self assetAtIndex:index] defaultRepresentation];

// Create a buffer to hold the data for the asset's image
uint8_t *buffer = (Byte*)malloc(representation.size); // Copy the data from the asset into the buffer
NSUInteger length = [representation getBytes:buffer fromOffset: 0.0  length:representation.size error:nil];

if (length==0)
    return nil;

// Convert the buffer into a NSData object, and free the buffer after.

NSData *adata = [[NSData alloc] initWithBytesNoCopy:buffer length:representation.size freeWhenDone:YES];

// Set up a dictionary with a UTI hint. The UTI hint identifies the type
// of image we are dealing with (that is, a jpeg, png, or a possible
// RAW file).

// Specify the source hint.

NSDictionary* sourceOptionsDict = [NSDictionary dictionaryWithObjectsAndKeys:

(id)[representation UTI], kCGImageSourceTypeIdentifierHint, nil];

// Create a CGImageSource with the NSData. A image source can
// contain x number of thumbnails and full images.

CGImageSourceRef sourceRef = CGImageSourceCreateWithData((CFDataRef) adata,  (CFDictionaryRef) sourceOptionsDict);

[adata release];

CFDictionaryRef imagePropertiesDictionary;

// Get a copy of the image properties from the CGImageSourceRef.

imagePropertiesDictionary = CGImageSourceCopyPropertiesAtIndex(sourceRef,0, NULL);

CFNumberRef imageWidth = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelWidth);

CFNumberRef imageHeight = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelHeight);

int w = 0;

int h = 0;

CFNumberGetValue(imageWidth, kCFNumberIntType, &w);

CFNumberGetValue(imageHeight, kCFNumberIntType, &h);

// Clean up memory

CFRelease(imagePropertiesDictionary);
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.